論文の概要: RC-GeoCP: Geometric Consensus for Radar-Camera Collaborative Perception
- arxiv url: http://arxiv.org/abs/2603.00654v1
- Date: Sat, 28 Feb 2026 13:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.31074
- Title: RC-GeoCP: Geometric Consensus for Radar-Camera Collaborative Perception
- Title(参考訳): RC-GeoCP : レーダーカメラ協調知覚のための幾何学的コンセンサス
- Authors: Xiaokai Bai, Lianqing Zheng, Runwei Guan, Siyuan Cao, Huiliang Shen,
- Abstract要約: 協調知覚(CP)は、マルチエージェント情報共有によるシーン理解を強化する。
密集した視覚的セマンティクスと頑丈な空間測定にもかかわらず、カメラと4Dレーダーの相乗効果は、協調的な環境では未探索のままである。
RC-GeoCPは4Dレーダと画像のCPへの融合を探求する最初のフレームワークである。
- 参考スコア(独自算出の注目度): 13.571190009676195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative perception (CP) enhances scene understanding through multi-agent information sharing. While LiDAR-centric systems offer precise geometry, high costs and performance degradation in adverse weather necessitate multi-modal alternatives. Despite dense visual semantics and robust spatial measurements, the synergy between cameras and 4D radar remains underexplored in collaborative settings. This work introduces RC-GeoCP, the first framework to explore the fusion of 4D radar and images in CP. To resolve misalignment caused by depth ambiguity and spatial dispersion across agents, RC-GeoCP establishes a radar-anchored geometric consensus. Specifically, Geometric Structure Rectification (GSR) aligns visual semantics with geometry derived from radar to generate spatially grounded, geometry-consistent representations. Uncertainty-Aware Communication (UAC) formulates selective transmission as a conditional entropy reduction process to prioritize informative features based on inter-agent disagreement. Finally, the Consensus-Driven Assembler (CDA) aggregates multi-agent information via shared geometric anchors to form a globally coherent representation. We establish the first unified radar-camera CP benchmark on V2X-Radar and V2X-R, demonstrating state-of-the-art performance with significantly reduced communication overhead. Code will be released soon.
- Abstract(参考訳): 協調知覚(CP)は、マルチエージェント情報共有によるシーン理解を強化する。
LiDAR中心のシステムは正確な幾何を提供するが、悪天候における高コストと性能劣化は、マルチモーダルな代替手段を必要とする。
密集した視覚的セマンティクスと頑丈な空間測定にもかかわらず、カメラと4Dレーダーの相乗効果は、協調的な環境では未探索のままである。
RC-GeoCPは4Dレーダと画像のCPへの融合を探求する最初のフレームワークである。
エージェント間の深度あいまいさと空間分散による不整合を解決するため、RC-GeoCPはレーダーによる幾何学的コンセンサスを確立する。
具体的には、幾何学的構造整形(GSR)は、視覚的意味論をレーダーから派生した幾何学と整合させ、空間的に接地された幾何学的一貫性のある表現を生成する。
不確実性認識通信(UAC)は、条件付きエントロピー低減プロセスとして選択的伝送を定式化し、エージェント間不一致に基づく情報的特徴の優先順位付けを行う。
最後に、Consensus-Driven Assembler (CDA) は共有幾何アンカーを介してマルチエージェント情報を集約し、グローバルコヒーレントな表現を形成する。
我々は,V2X-RadarおよびV2X-R上での最初の統一型レーダカメラCPベンチマークを構築し,通信オーバーヘッドを大幅に低減した最先端性能を示す。
コードはまもなくリリースされる。
関連論文リスト
- LEAR: Learning Edge-Aware Representations for Event-to-LiDAR Localization [15.308350522323588]
LEARは、エッジ構造と高密度事象深度流れ場を共同で推定し、知覚とモダリティの分断を橋渡しする。
いくつかの人気があり、挑戦的なデータセットにおいて、LEARは最高の先行メソッドよりも優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2026-03-02T13:18:25Z) - Boosting Instance Awareness via Cross-View Correlation with 4D Radar and Camera for 3D Object Detection [19.99225197463389]
SIFormerは4Dレーダーとカメラを用いた3Dオブジェクト検出のためのシーンインスタンス対応トランスフォーマーである。
実験の結果、SIFormerはView-of-Delft、TJ4DRadSet、NuScenesのデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2026-02-24T07:25:53Z) - RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - Geo6DPose: Fast Zero-Shot 6D Object Pose Estimation via Geometry-Filtered Feature Matching [0.0]
Geo6DPoseは、ゼロショット6Dポーズ推定のための軽量で、完全にローカルで、トレーニング不要なパイプラインである。
Geo6DPoseは、1つのコモディティGPU上で、はるかに大きなゼロショットベースラインの平均リコールをマッチングしながら、サブ秒の推論を実現する。
論文 参考訳(メタデータ) (2025-12-11T14:20:17Z) - Scaling Foundation Models for Radar Scene Understanding [8.23171791313388]
レーダーセンサーは、悪天候、照明、長距離の状況に対して信頼性の高い認識を提供する。
基礎モデルの最近の進歩は、視覚的および言語的理解に変化をもたらしたが、レーダーセンシングとの統合は、ほとんど未解明のままである。
本稿では,空間言語を構造化し,シーンレベルの統一表現を学習するレーダ基礎モデルであるRadarFMを紹介する。
論文 参考訳(メタデータ) (2025-11-26T06:41:00Z) - GDROS: A Geometry-Guided Dense Registration Framework for Optical-SAR Images under Large Geometric Transformations [24.22541638346487]
我々はGDROSを提案する。GDROSはグローバルなクロスモーダル画像の相互作用を利用したジオメトリ誘導型密度登録フレームワークである。
まず、CNN-Transformerハイブリッド特徴抽出モジュールを用いて、光学画像とSAR画像からクロスモーダルな深度特徴を抽出する。
次に、予測された高密度光流場を幾何学的に制約する最小二乗回帰(LSR)モジュールを実装した。
論文 参考訳(メタデータ) (2025-11-01T15:40:34Z) - LaRI: Layered Ray Intersections for Single-view 3D Geometric Reasoning [75.9814389360821]
層状光線交差(LaRI)は、1つの画像から未知の幾何学的推論を行う新しい方法である。
コンパクトで階層的な表現から恩恵を受けることで、LaRIは完全で効率的でビュー整合な幾何学的推論を可能にする。
3Dオブジェクトやシーンを含む、合成および実世界のデータのための完全なトレーニングデータ生成パイプラインを構築します。
論文 参考訳(メタデータ) (2025-04-25T15:31:29Z) - Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
グローバルおよび詳細な幾何学的特徴を別々に扱うことにより、高品質な深度マップ再構築プロセスを分離する。
我々の解は、幾何的整合性と詳細回復の観点から、現在の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - COTR: Compact Occupancy TRansformer for Vision-based 3D Occupancy Prediction [60.87168562615171]
自動運転コミュニティは、3Dの占有率予測に大きな関心を示している。
我々は、幾何学的占有率エンコーダと意味論的グループデコーダを備えたコンパクト占有率TRansformer (COTR)を提案する。
COTRは、8%から15%の相対的な改善でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-12-04T14:23:18Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。