論文の概要: SlimComm: Doppler-Guided Sparse Queries for Bandwidth-Efficient Cooperative 3-D Perception
- arxiv url: http://arxiv.org/abs/2508.13007v1
- Date: Mon, 18 Aug 2025 15:27:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.449764
- Title: SlimComm: Doppler-Guided Sparse Queries for Bandwidth-Efficient Cooperative 3-D Perception
- Title(参考訳): SlimComm:バンド幅高能率3次元知覚のためのドプラ誘導スパースクエリ
- Authors: Melih Yazgan, Qiyuan Wu, Iramm Hamdard, Shiqi Li, J. Marius Zoellner,
- Abstract要約: SlimCommは、4Dレーダドップラーとクエリ駆動スパーススキームを統合したフレームワークである。
SlimCommは、静的オブジェクトからの移動を区別するために、モーション中心の動的マップを構築する。
OPV2V-R と Adver-City-R, CARLA ベースのデータセットを点当たりドップラーレーダでリリースする。
- 参考スコア(独自算出の注目度): 1.4338832931911705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Collaborative perception allows connected autonomous vehicles (CAVs) to overcome occlusion and limited sensor range by sharing intermediate features. Yet transmitting dense Bird's-Eye-View (BEV) feature maps can overwhelm the bandwidth available for inter-vehicle communication. We present SlimComm, a communication-efficient framework that integrates 4D radar Doppler with a query-driven sparse scheme. SlimComm builds a motion-centric dynamic map to distinguish moving from static objects and generates two query types: (i) reference queries on dynamic and high-confidence regions, and (ii) exploratory queries probing occluded areas via a two-stage offset. Only query-specific BEV features are exchanged and fused through multi-scale gated deformable attention, reducing payload while preserving accuracy. For evaluation, we release OPV2V-R and Adver-City-R, CARLA-based datasets with per-point Doppler radar. SlimComm achieves up to 90% lower bandwidth than full-map sharing while matching or surpassing prior baselines across varied traffic densities and occlusions. Dataset and code will be available at: https://url.fzi.de/SlimComm.
- Abstract(参考訳): 協調認識により、接続された自動運転車(CAV)は、中間的特徴を共有することによって、閉塞と限られたセンサー範囲を克服することができる。
しかし、密度の高いBird's-Eye-View(BEV)機能マップを送信すれば、車間通信で利用可能な帯域を超過することができる。
SlimCommは、4Dレーダドップラーとクエリ駆動スパーススキームを統合した通信効率のよいフレームワークである。
SlimCommは、静的オブジェクトからの移動を区別するために動き中心の動的マップを構築し、以下の2つのクエリタイプを生成する。
(i)動的・高信頼領域の参照クエリ、
(II)2段階オフセットによる排他的領域探索クエリ。
クエリ固有のBEV機能のみを交換し、マルチスケールのゲートで変形可能な注意を通して融合し、精度を維持しながらペイロードを削減する。
評価のために,我々は点当たりドップラーレーダを用いたCARLAベースデータセットであるOPV2V-RとAdver-City-Rをリリースする。
SlimCommは全マップ共有よりも最大90%低い帯域幅を実現し、様々なトラフィック密度とオクルージョンにまたがる以前のベースラインをマッチングまたは超えている。
データセットとコードは以下の通りである。
関連論文リスト
- EffiComm: Bandwidth Efficient Multi Agent Communication [11.311414617703308]
協調認識により、接続された車両はセンサー情報を交換し、各車両の盲点を克服することができる。
EffiCommは、最先端の3Dオブジェクト検出精度を維持しながら、先行技術で要求されるデータの40%未満を送信するエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2025-07-25T15:03:26Z) - Dynamic Cross-Modal Feature Interaction Network for Hyperspectral and LiDAR Data Classification [66.59320112015556]
ハイパースペクトル画像(HSI)とLiDARデータ共同分類は難しい課題である。
DCMNet(Dynamic Cross-Modal Feature Interaction Network)を提案する。
BSAB(Bilinear Spatial Attention Block)、BCAB(Bilinear Channel Attention Block)、ICB(Integration Convolutional Block)の3つの機能相互作用ブロックを導入している。
論文 参考訳(メタデータ) (2025-03-10T05:50:13Z) - TrafficLoc: Localizing Traffic Surveillance Cameras in 3D Scenes [49.43995864524434]
本稿では,画像間クラウド登録(I2P)手法であるTrafficLocを提案する。
大規模な現実世界の交差点データセットの欠如を克服するため、カルラの75の都市と農村の交差点を持つ新しいシミュレーションデータセットであるCarla Intersectionを紹介した。
我々のTrafficLocは、Carla Intersection上でSOTA I2P法(最大86%)よりも大幅に性能を向上し、実世界のデータに対してよく一般化する。
論文 参考訳(メタデータ) (2024-12-13T17:42:53Z) - MR3D-Net: Dynamic Multi-Resolution 3D Sparse Voxel Grid Fusion for LiDAR-Based Collective Perception [0.5714074111744111]
MR3D-Netは,LiDARに基づく集団認識のための動的マルチレゾリューション3次元スパースボクセルグリッド融合バックボーンアーキテクチャである。
本研究では,様々な解像度の分散ボクセルグリッドが,通信帯域に適応できる有意義でコンパクトな環境表現を提供することを示す。
論文 参考訳(メタデータ) (2024-08-12T13:27:11Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - Where2comm: Communication-Efficient Collaborative Perception via Spatial
Confidence Maps [24.47241495415147]
マルチエージェント協調知覚は、知覚性能を大幅に向上させる可能性がある。
これは必然的に、知覚性能と通信帯域間の根本的なトレードオフをもたらす。
本稿では,知覚情報の空間的不均一性を反映した空間信頼マップを提案する。
コミュニケーション効率の良い協調認識フレームワークであるWhere2commを提案する。
論文 参考訳(メタデータ) (2022-09-26T16:41:18Z) - CoBEVT: Cooperative Bird's Eye View Semantic Segmentation with Sparse
Transformers [36.838065731893735]
CoBEVTは、BEVマップ予測を協調的に生成できる最初の汎用マルチエージェント認識フレームワークである。
CoBEVTは協調的BEVセマンティックセグメンテーションのための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-05T17:59:28Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。