論文の概要: EIMC: Efficient Instance-aware Multi-modal Collaborative Perception
- arxiv url: http://arxiv.org/abs/2603.02532v1
- Date: Tue, 03 Mar 2026 02:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.604421
- Title: EIMC: Efficient Instance-aware Multi-modal Collaborative Perception
- Title(参考訳): EIMC: 効率的なインスタンス対応マルチモーダル協調認識
- Authors: Kang Yang, Peng Wang, Lantao Li, Tianci Bu, Chen Sun, Deying Li, Yongcai Wang,
- Abstract要約: EIMCは自動運転のための初期の協調パラダイムを提案する。
近隣のエージェントが伝達する軽量なコラボレーティブなボクセルをエゴの局所的なモダリティ融合ステップに注入する。
ヒートマップ駆動のコンセンサスプロトコルは、協力が必要な場所を正確に特定する。
精細化融合は、各エージェントから最も確実なインスタンスを収集し、それらの機能を強化する。
- 参考スコア(独自算出の注目度): 18.679140250964135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal collaborative perception calls for great attention to enhancing the safety of autonomous driving. However, current multi-modal approaches remain a ``local fusion to communication'' sequence, which fuses multi-modal data locally and needs high bandwidth to transmit an individual's feature data before collaborative fusion. EIMC innovatively proposes an early collaborative paradigm. It injects lightweight collaborative voxels, transmitted by neighbor agents, into the ego's local modality-fusion step, yielding compact yet informative 3D collaborative priors that tighten cross-modal alignment. Next, a heatmap-driven consensus protocol identifies exactly where cooperation is needed by computing per-pixel confidence heatmaps. Only the Top-K instance vectors located in these low-confidence, high-discrepancy regions are queried from peers, then fused via cross-attention for completion. Afterwards, we apply a refinement fusion that involves collecting the top-K most confident instances from each agent and enhancing their features using self-attention. The above instance-centric messaging reduces redundancy while guaranteeing that critical occluded objects are recovered. Evaluated on OPV2V and DAIR-V2X, EIMC attains 73.01\% AP@0.5 while reducing byte bandwidth usage by 87.98\% compared with the best published multi-modal collaborative detector. Code publicly released at https://github.com/sidiangongyuan/EIMC.
- Abstract(参考訳): マルチモーダルな協調認識は、自動運転の安全性を高めるために大きな注意を払っている。
しかし、現在のマルチモーダル・アプローチは、「ローカル・フュージョン・トゥ・コミュニケーション」のシーケンスのままであり、ローカル・モーダル・データを融合させ、協調融合の前に個人の特徴データを送信するために高い帯域幅を必要とする。
EIMCは革新的に初期の協調パラダイムを提案している。
近隣のエージェントが伝達する軽量なコラボレーティブなボクセルをエゴの局所的なモダリティ融合のステップに注入し、コンパクトで情報的な3Dコラボレーティブな前駆体を発生させ、クロスモーダルなアライメントを締め付ける。
次に、熱マップ駆動のコンセンサスプロトコルは、画素ごとの信頼度熱マップを計算することによって、正確に協調が必要な場所を特定する。
これらの低信頼領域に位置するTop-Kインスタンスベクトルのみが、ピアからクエリされ、完了のためにクロスアテンションを介して融合される。
その後、各エージェントから最も信頼度の高いインスタンスを収集し、自己注意を用いてそれらの特徴を増強する改良融合を適用する。
上記のインスタンス中心のメッセージングは、重要な隠蔽オブジェクトが復元されることを保証しながら、冗長性を減少させる。
OPV2VとDAIR-V2Xで評価され、EIMCは73.01\% AP@0.5を達成し、バイト帯域幅を87.98\%削減した。
コード公開はhttps://github.com/sidiangongyuan/EIMC。
関連論文リスト
- InterAgent: Physics-based Multi-agent Command Execution via Diffusion on Interaction Graphs [72.5651722107621]
InterAgentはテキスト駆動型物理ベースのマルチエージェントヒューマノイド制御のためのエンドツーエンドフレームワークである。
本稿では,マルチストリームブロックを備えた自己回帰拡散トランスフォーマーを提案する。
また,空間依存性の微粒化を明示的に捉えた対話グラフのエクスセプション表現を提案する。
論文 参考訳(メタデータ) (2025-12-08T10:46:01Z) - One-Shot Secure Aggregation: A Hybrid Cryptographic Protocol for Private Federated Learning in IoT [0.0]
Hyb-Aggは軽量で通信効率の良いセキュアアグリゲーションプロトコルである。
マルチキーCKKS (MK-CKKS) と楕円曲線Diffie-Hellman (ECDH) ベースの加算マスキングを統合している。
Raspberry Pi 4を含む高性能およびリソース制約のあるデバイス上でHyb-Aggを実装し,評価する。
論文 参考訳(メタデータ) (2025-11-28T15:01:26Z) - Is Discretization Fusion All You Need for Collaborative Perception? [5.44403620979893]
本稿では,Anchor-Centric paradigm for Collaborative Object Detection (ACCO)を提案する。
グリッド精度の問題を避け、より柔軟で効率的なアンカー中心の通信と融合を可能にする。
OPV2VおよびDair-V2Xデータセット上のACCOを評価するための総合的な実験を行った。
論文 参考訳(メタデータ) (2025-03-18T06:25:03Z) - RG-Attn: Radian Glue Attention for Multi-modality Multi-agent Cooperative Perception [14.450341173771486]
Radian Glue Attention (RG-Attn) は軽量で一般化可能なクロスモーダル核融合モジュールである。
RG-Attnは、ラジアンベースの注意制約を通じて、効率的に特徴を整列する。
Paint-To-Puzzle (PTP)は通信効率を優先するが、すべてのエージェントがカメラを持っていると仮定する。
CoS-CoCoは最大柔軟性を提供し、あらゆるセンサー設定をサポートする。
Pyramid-RG-Attn Fusion (PRGAF) は計算オーバーヘッドが最も高いピーク検出精度を目指している。
論文 参考訳(メタデータ) (2025-01-28T09:08:31Z) - What Makes Good Collaborative Views? Contrastive Mutual Information Maximization for Multi-Agent Perception [52.41695608928129]
マルチエージェント認識(MAP)は、複数のソースからのデータを解釈することで、自律システムが複雑な環境を理解することを可能にする。
本稿では,MAPにおける協調的視点の「良い」特性を探求することに焦点を当てた中間的協調について検討する。
中間コラボレーションのための新しいフレームワークCMiMCを提案する。
論文 参考訳(メタデータ) (2024-03-15T07:18:55Z) - Practical Collaborative Perception: A Framework for Asynchronous and
Multi-Agent 3D Object Detection [9.967263440745432]
咬合は、LiDARベースのオブジェクト検出方法において大きな課題である。
最先端のV2X手法は、中間協調手法を用いて性能帯域幅のトレードオフを解消する。
我々は,従来の方法よりも帯域幅と性能のトレードオフを向上する,シンプルで効果的な協調手法を考案した。
論文 参考訳(メタデータ) (2023-07-04T03:49:42Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Collaborative Mean Estimation over Intermittently Connected Networks
with Peer-To-Peer Privacy [86.61829236732744]
本研究は、断続接続を有するネットワーク上での分散平均推定(DME)の問題について考察する。
目標は、中央サーバの助けを借りて、分散ノード間でローカライズされたデータサンプルに関するグローバル統計を学習することだ。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2023-02-28T19:17:03Z) - COVINS: Visual-Inertial SLAM for Centralized Collaboration [11.65456841016608]
協調的SLAMは、エージェントのグループが同時に環境を局所化し、共同でマッピングすることを可能にする。
本稿では,大規模環境においてマルチエージェントでスケーラブルなSLAMを実現する,新しい協調SLAMシステムであるCOVINSについて述べる。
論文 参考訳(メタデータ) (2021-08-12T13:50:44Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。