論文の概要: From Features to Reference Points: Lightweight and Adaptive Fusion for Cooperative Autonomous Driving
- arxiv url: http://arxiv.org/abs/2511.18757v1
- Date: Mon, 24 Nov 2025 04:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.018541
- Title: From Features to Reference Points: Lightweight and Adaptive Fusion for Cooperative Autonomous Driving
- Title(参考訳): 特徴から基準点へ:協調運転における軽量・適応核融合
- Authors: Yongqi Zhu, Morui Zhu, Qi Chen, Deyuan Qu, Song Fu, Qing Yang,
- Abstract要約: RefPtsFusionは、協調自動運転のための軽量かつ解釈可能なフレームワークである。
大きな特徴マップやクエリの埋め込みを共有する代わりに、車両はコンパクトな参照ポイントを交換する。
このアプローチは、焦点を"見えるもの"から"見える場所"にシフトし、センサーとモデルに依存しないインターフェースを生成する。
- 参考スコア(独自算出の注目度): 11.678736288487888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present RefPtsFusion, a lightweight and interpretable framework for cooperative autonomous driving. Instead of sharing large feature maps or query embeddings, vehicles exchange compact reference points, e.g., objects' positions, velocities, and size information. This approach shifts the focus from "what is seen" to "where to see", creating a sensor- and model-independent interface that works well across vehicles with heterogeneous perception models while greatly reducing communication bandwidth. To enhance the richness of shared information, we further develop a selective Top-K query fusion that selectively adds high-confidence queries from the sender. It thus achieves a strong balance between accuracy and communication cost. Experiments on the M3CAD dataset show that RefPtsFusion maintains stable perception performance while reducing communication overhead by five orders of magnitude, dropping from hundreds of MB/s to only a few KB/s at 5 FPS (frame per second), compared to traditional feature-level fusion methods. Extensive experiments also demonstrate RefPtsFusion's strong robustness and consistent transmission behavior, highlighting its potential for scalable, real-time cooperative driving systems.
- Abstract(参考訳): 本稿では,協調運転のための軽量かつ解釈可能なフレームワークであるRefPtsFusionを紹介する。
大きな特徴マップやクエリの埋め込みを共有する代わりに、車両はコンパクトな参照ポイント、例えばオブジェクトの位置、速度、サイズ情報を交換する。
このアプローチは、フォーカスを「見るもの」から「見る場所」にシフトさせ、センサーとモデルに依存しないインターフェースを作成し、不均一な知覚モデルを持つ車両間でうまく機能し、通信帯域を大幅に削減する。
共有情報の豊かさを高めるため,送信者から高信頼度クエリを選択的に追加するTop-Kクエリ融合を開発する。
これにより、精度と通信コストのバランスが強くなる。
M3CADデータセットの実験によると、RefPtsFusionは、従来の機能レベルの融合手法と比較して、通信オーバーヘッドを5桁減らし、数百MB/sからわずか数KB/sに減らし、安定した認識性能を維持している。
大規模な実験はまた、RefPtsFusionの強い堅牢性と一貫した伝達挙動を示し、スケーラブルでリアルタイムな協調運転システムの可能性を強調している。
関連論文リスト
- CARE Transformer: Mobile-Friendly Linear Visual Transformer via Decoupled Dual Interaction [77.8576094863446]
本稿では,新しいdetextbfCoupled dutextbfAl-interactive lineatextbfR atttextbfEntion (CARE) 機構を提案する。
まず,非対称な特徴分離戦略を提案し,非対称的に学習プロセスを局所帰納バイアスと長距離依存に分解する。
分離学習方式を採用し,特徴間の相補性を完全に活用することにより,高い効率性と精度を両立させることができる。
論文 参考訳(メタデータ) (2024-11-25T07:56:13Z) - Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - HEAD: A Bandwidth-Efficient Cooperative Perception Approach for Heterogeneous Connected and Autonomous Vehicles [9.10239345027499]
HEADは3次元物体検出ネットワークにおける分類と回帰ヘッドの特徴を融合する手法である。
実験の結果,HEADは通信帯域幅と知覚性能を効果的にバランスさせる融合法であることがわかった。
論文 参考訳(メタデータ) (2024-08-27T22:05:44Z) - MR3D-Net: Dynamic Multi-Resolution 3D Sparse Voxel Grid Fusion for LiDAR-Based Collective Perception [0.5714074111744111]
MR3D-Netは,LiDARに基づく集団認識のための動的マルチレゾリューション3次元スパースボクセルグリッド融合バックボーンアーキテクチャである。
本研究では,様々な解像度の分散ボクセルグリッドが,通信帯域に適応できる有意義でコンパクトな環境表現を提供することを示す。
論文 参考訳(メタデータ) (2024-08-12T13:27:11Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - Cooperative Perception with Learning-Based V2V communications [11.772899644895281]
本研究は,コミュニケーションチャネル障害に対する協調認識会計の性能を解析する。
中間特性のロバスト性を活用するために, 新たなレイトフュージョン方式を提案する。
協調によって生じるデータサイズを圧縮するために、畳み込みニューラルネットワークベースのオートエンコーダを採用する。
論文 参考訳(メタデータ) (2023-11-17T05:41:23Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - TransFuser: Imitation with Transformer-Based Sensor Fusion for
Autonomous Driving [46.409930329699336]
本稿では,自己注意を用いた画像とLiDAR表現の統合機構であるTransFuserを提案する。
提案手法では,複数解像度のトランスフォーマーモジュールを用いて視線と鳥の視線の特徴マップを融合する。
我々は、CARLA都市運転シミュレータの公式リーダーボードと同様に、長いルートと密集した交通量を持つ挑戦的な新しいベンチマークにおいて、その効果を実験的に検証した。
論文 参考訳(メタデータ) (2022-05-31T17:57:19Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of
Autonomous Driving [2.6543018470131283]
本稿では,FPV-RCNNと呼ばれる,効率的なキーポイントに基づく深い特徴融合フレームワークを提案する。
鳥眼視(BEV)キーポイントの核融合と比較すると、FPV-RCNNは検出精度を約14%向上させる。
また,提案手法はCPMのサイズを0.3KB以下に削減し,従来のBEV機能マップの約50倍の小型化を実現した。
論文 参考訳(メタデータ) (2021-09-23T19:41:02Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。