論文の概要: EffiComm: Bandwidth Efficient Multi Agent Communication
- arxiv url: http://arxiv.org/abs/2507.19354v1
- Date: Fri, 25 Jul 2025 15:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:49.00613
- Title: EffiComm: Bandwidth Efficient Multi Agent Communication
- Title(参考訳): EffiComm:バンド幅効率の良いマルチエージェント通信
- Authors: Melih Yazgan, Allen Xavier Arasan, J. Marius Zöllner,
- Abstract要約: 協調認識により、接続された車両はセンサー情報を交換し、各車両の盲点を克服することができる。
EffiCommは、最先端の3Dオブジェクト検出精度を維持しながら、先行技術で要求されるデータの40%未満を送信するエンドツーエンドフレームワークである。
- 参考スコア(独自算出の注目度): 11.311414617703308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative perception allows connected vehicles to exchange sensor information and overcome each vehicle's blind spots. Yet transmitting raw point clouds or full feature maps overwhelms Vehicle-to-Vehicle (V2V) communications, causing latency and scalability problems. We introduce EffiComm, an end-to-end framework that transmits less than 40% of the data required by prior art while maintaining state-of-the-art 3D object detection accuracy. EffiComm operates on Bird's-Eye-View (BEV) feature maps from any modality and applies a two-stage reduction pipeline: (1) Selective Transmission (ST) prunes low-utility regions with a confidence mask; (2) Adaptive Grid Reduction (AGR) uses a Graph Neural Network (GNN) to assign vehicle-specific keep ratios according to role and network load. The remaining features are fused with a soft-gated Mixture-of-Experts (MoE) attention layer, offering greater capacity and specialization for effective feature integration. On the OPV2V benchmark, EffiComm reaches 0.84 mAP@0.7 while sending only an average of approximately 1.5 MB per frame, outperforming previous methods on the accuracy-per-bit curve. These results highlight the value of adaptive, learned communication for scalable Vehicle-to-Everything (V2X) perception.
- Abstract(参考訳): 協調的な認識により、接続された車両はセンサー情報を交換し、各車両の盲点を克服することができる。
しかし、生のポイントクラウドやフル機能マップの送信は、V2V通信を圧倒し、レイテンシとスケーラビリティの問題を引き起こします。
EffiCommは、最先端の3Dオブジェクト検出精度を維持しながら、先行技術で要求されるデータの40%未満を送信するエンドツーエンドフレームワークである。
EffiCommはBird's-Eye-View (BEV)の機能マップを任意のモードから運用し、(1) Selective Transmission (ST) prunes low-utility region with a confidence mask; (2) Adaptive Grid Reduction (AGR)はGraph Neural Network (GNN)を使用して、役割とネットワーク負荷に応じて車両固有の保留比率を割り当てる。
残りの機能はソフトゲートのMixture-of-Experts (MoE)アテンションレイヤで融合され、機能統合を効果的にするためのキャパシティと特殊化を提供する。
OPV2Vベンチマークでは、EffiCommは0.84 mAP@0.7に到達し、フレーム当たり平均1.5MBしか送信せず、ビット毎の精度曲線の従来の手法よりも優れていた。
これらの結果は、スケーラブルなV2X(Vager-to-Everything)知覚のための適応的で学習されたコミュニケーションの価値を強調している。
関連論文リスト
- Optimal Transport Adapter Tuning for Bridging Modality Gaps in Few-Shot Remote Sensing Scene Classification [80.83325513157637]
Few-Shot Remote Sensing Scene Classification (FS-RSSC)は,限られたラベル付きサンプルを用いたリモートセンシング画像の分類の課題を示す。
理想的なプラトン表現空間を構築することを目的とした,OTAT(Optimal Transport Adapter Tuning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T07:04:24Z) - CoCMT: Communication-Efficient Cross-Modal Transformer for Collaborative Perception [14.619784179608361]
マルチエージェント協調知覚は、ロボット知覚タスクを協調的に行うために、知覚情報を共有することによって、各エージェントの能力を高める。
既存の代表的な協調認識システムは、大量の非臨界情報を含む中間特徴写像を伝達する。
本稿では,オブジェクトクエリをベースとした協調フレームワークであるCoCMTを紹介し,重要な特徴を選択的に抽出し伝達することによって,通信帯域幅を最大化する。
論文 参考訳(メタデータ) (2025-03-13T06:41:25Z) - LCV2I: Communication-Efficient and High-Performance Collaborative Perception Framework with Low-Resolution LiDAR [19.748419057261106]
V2I(Van-to-Infrastructure)は、インフラのセンサーによって収集されたデータを活用して、車両の知覚能力を高める。
ライダーは協調的な知覚においてよく使われるセンサーであり、インテリジェントな車両やインフラに広く備わっている。
低コストなV2Iを実現するためには、LiDARのコスト削減が不可欠である。
論文 参考訳(メタデータ) (2025-02-24T10:46:28Z) - CARE Transformer: Mobile-Friendly Linear Visual Transformer via Decoupled Dual Interaction [77.8576094863446]
本稿では,新しいdetextbfCoupled dutextbfAl-interactive lineatextbfR atttextbfEntion (CARE) 機構を提案する。
まず,非対称な特徴分離戦略を提案し,非対称的に学習プロセスを局所帰納バイアスと長距離依存に分解する。
分離学習方式を採用し,特徴間の相補性を完全に活用することにより,高い効率性と精度を両立させることができる。
論文 参考訳(メタデータ) (2024-11-25T07:56:13Z) - LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation [16.465037559349323]
LET-VICはLiDARをベースとした車両・インフラ協調のためのエンド・ツー・エンドトラッキングフレームワークである。
車両とインフラの両面から時間的・空間的な情報を統合するために,時間的自己認識モジュールとVICクロスアテンションモジュールを用いている。
実験により、エンドツーエンドトレーニングにおける多視点視点、時間シーケンス、またはCECの統合は、検出と追跡の両方のパフォーマンスを著しく改善することが示された。
論文 参考訳(メタデータ) (2024-11-22T13:34:29Z) - Channel-Aware Throughput Maximization for Cooperative Data Fusion in CAV [17.703608985129026]
接続型および自律型車両(CAV)は、認識範囲の拡大と知覚範囲の増大により、大きな注目を集めている。
盲点や障害物などの問題に対処するため、CAVは周囲の車両からのデータを集めるために車両間通信を採用している。
本稿では,適応データ圧縮のための自己教師付きオートエンコーダを活用した,CAVデータ融合を容易にするチャネル対応スループット手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T00:43:46Z) - VeCAF: Vision-language Collaborative Active Finetuning with Training Objective Awareness [56.87603097348203]
VeCAFはラベルと自然言語アノテーションを使用して、PVMの微調整のためのパラメトリックデータ選択を行う。
VeCAFは微調整の目的を取り入れて重要なデータポイントを選択し、PVMをより高速な収束に向けて効果的に導く。
ImageNetでは、VeCAFは最大3.3倍のトレーニングバッチを使用して、完全な微調整に比べて目標のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-01-15T17:28:37Z) - TransXNet: Learning Both Global and Local Dynamics with a Dual Dynamic Token Mixer for Visual Recognition [63.93802691275012]
グローバル・ローカル・ダイナミクスを同時に学習するための軽量なデュアル・ダイナミック・トケン・ミキサー(D-Mixer)を提案する。
我々は、新しいハイブリッドCNN-TransformerビジョンバックボーンネットワークであるTransXNetを設計するために、基本的なビルディングブロックとしてD-Mixerを使用している。
ImageNet-1K分類では、TransXNet-TはSwin-Tを0.3%上回り、計算コストの半分以下である。
論文 参考訳(メタデータ) (2023-10-30T09:35:56Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of
Autonomous Driving [2.6543018470131283]
本稿では,FPV-RCNNと呼ばれる,効率的なキーポイントに基づく深い特徴融合フレームワークを提案する。
鳥眼視(BEV)キーポイントの核融合と比較すると、FPV-RCNNは検出精度を約14%向上させる。
また,提案手法はCPMのサイズを0.3KB以下に削減し,従来のBEV機能マップの約50倍の小型化を実現した。
論文 参考訳(メタデータ) (2021-09-23T19:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。