論文の概要: CoLC: Communication-Efficient Collaborative Perception with LiDAR Completion
- arxiv url: http://arxiv.org/abs/2603.00682v1
- Date: Sat, 28 Feb 2026 14:45:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.32061
- Title: CoLC: Communication-Efficient Collaborative Perception with LiDAR Completion
- Title(参考訳): CoLC: LiDAR 補完によるコミュニケーション効率の良い協調知覚
- Authors: Yushan Han, Hui Zhang, Qiming Xia, Yi Jin, Yidong Li,
- Abstract要約: 協調認識フレームワークは、疎透過下でのシーン完全性を復元するためにLiDAR Completionを組み込んでいる。
シミュレーションと実世界の両方のデータセットの実験は、COLCが優れた認識コミュニケーショントレードオフを達成することを示した。
- 参考スコア(独自算出の注目度): 28.36474535601766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative perception empowers autonomous agents to share complementary information and overcome perception limitations. While early fusion offers more perceptual complementarity and is inherently robust to model heterogeneity, its high communication cost has limited its practical deployment, prompting most existing works to favor intermediate or late fusion. To address this, we propose a communication-efficient early Collaborative perception framework that incorporates LiDAR Completion to restore scene completeness under sparse transmission, dubbed as CoLC. Specifically, the CoLC integrates three complementary designs. First, each neighbor agent applies Foreground-Aware Point Sampling (FAPS) to selectively transmit informative points that retain essential structural and contextual cues under bandwidth constraints. The ego agent then employs Completion-Enhanced Early Fusion (CEEF) to reconstruct dense pillars from the received sparse inputs and adaptively fuse them with its own observations, thereby restoring spatial completeness. Finally, the Dense-Guided Dual Alignment (DGDA) strategy enforces semantic and geometric consistency between the enhanced and dense pillars during training, ensuring consistent and robust feature learning. Experiments on both simulated and real-world datasets demonstrate that CoLC achieves superior perception-communication trade-offs and remains robust under heterogeneous model settings. The code is available at https://github.com/CatOneTwo/CoLC.
- Abstract(参考訳): 協調的な知覚は、自律的なエージェントが補完的な情報を共有し、知覚の限界を克服する権限を与える。
初期の融合は知覚的な相補性を提供し、本質的には不均一性をモデル化するのに堅牢であるが、その高い通信コストは実用的展開を制限し、既存のほとんどの作業は中間的または後期的な融合を好まざるを得なくなった。
そこで本稿では,LiDARコンプリートを組み込んだ通信効率の良い早期協調認識フレームワークを提案する。
特に、COLCは3つの相補的な設計を統合している。
まず、各隣接エージェントがフォアグラウンド・アウェア・ポイント・サンプリング(FAPS)を適用し、帯域幅制約の下で重要な構造的および文脈的手がかりを保持する情報的ポイントを選択的に送信する。
次に、エゴエージェントはコンプリーション強化早期融合(CEEF)を使用して、受信したスパース入力から高密度の柱を再構築し、それ自身の観測でそれらを適応的に融合させ、空間的完全性を回復させる。
最後に、Dense-Guided Dual Alignment(DGDA)戦略は、トレーニング中に強化された柱と高密度な柱の間の意味的および幾何学的一貫性を強制し、一貫性と堅牢な特徴学習を確実にする。
シミュレーションと実世界の両方のデータセットの実験は、COLCが優れた認識コミュニケーショントレードオフを達成し、異種モデル設定下では堅牢であることを示した。
コードはhttps://github.com/CatOneTwo/COLCで入手できる。
関連論文リスト
- Hierarchical Federated Learning with SignSGD: A Highly Communication-Efficient Approach [16.51305515824504]
Hierarchical Edge Learning (HFL)は、大規模ワイヤレスおよびIoTシステムの鍵として登場した。
符号に基づく勾配降下法(SignSGD)のような方法が不可欠であるが、既存の理論やアルゴリズムは自然に階層的な設定にまで拡張しない。
スケーラブルなHFLアルゴリズムであるHierSignSGDを導入し、階層的な設定でSignSGDの収束解析を行う。
論文 参考訳(メタデータ) (2026-02-02T17:18:03Z) - CoCo-Fed: A Unified Framework for Memory- and Communication-Efficient Federated Learning at the Wireless Edge [50.42067935605982]
ローカルメモリの効率とグローバル通信の削減を両立させる新しい圧縮・結合型学習フレームワークを提案する。
CoCo-Fedは、メモリと通信効率の両方において最先端のベースラインを著しく上回り、非IID設定下では堅牢な収束を維持している。
論文 参考訳(メタデータ) (2026-01-02T03:39:50Z) - Toward Stable Semi-Supervised Remote Sensing Segmentation via Co-Guidance and Co-Fusion [31.189038928192648]
Co2Sは半教師付きRSセグメンテーションフレームワークで、ビジョン言語モデルと自己教師型モデルとを融合する。
テキスト埋め込みと学習可能なクエリを利用した,明示的でシンプルなセマンティックコガイダンス機構が導入された。
6つの一般的なデータセットに対する実験は,提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2025-12-28T18:24:19Z) - CoT-Saliency: Unified Chain-of-Thought Reasoning for Heterogeneous Saliency Tasks [96.64597365827046]
本稿では,3つの運用上不均一なサリエンシタスクを共同で処理する,最初の統合フレームワークを提案する。
タスクの不均一性を橋渡しする視覚言語モデル(VLM)において、チェーン・オブ・ソート(CoT)推論プロセスを導入する。
我々は,全タスクにまたがる特別なSOTA手法と強力なクローズドソースVLMの整合性を示す。
論文 参考訳(メタデータ) (2025-11-01T04:37:01Z) - CIR-CoT: Towards Interpretable Composed Image Retrieval via End-to-End Chain-of-Thought Reasoning [93.05917922306196]
Composed Image Retrieval (CIR) は、参照画像と修正テキストから対象画像を見つけることを目的としている。
CIR-CoTは、明示的なChain-of-Thought (CoT)推論を統合するために設計された最初のエンドツーエンド検索指向MLLMである。
論文 参考訳(メタデータ) (2025-10-09T09:41:45Z) - Beyond BEV: Optimizing Point-Level Tokens for Collaborative Perception [17.654858416126093]
協調的知覚により、エージェントは中間的特徴を交換することで知覚能力を高めることができる。
既存の手法は通常、これらの中間機能を2D Bird's-eye-view (BEV)表現として整理する。
ポイントレベル最適化トークンを利用した新しい協調認識フレームワークであるCoPLOTを提案する。
論文 参考訳(メタデータ) (2025-08-27T07:27:42Z) - Is Discretization Fusion All You Need for Collaborative Perception? [5.44403620979893]
本稿では,Anchor-Centric paradigm for Collaborative Object Detection (ACCO)を提案する。
グリッド精度の問題を避け、より柔軟で効率的なアンカー中心の通信と融合を可能にする。
OPV2VおよびDair-V2Xデータセット上のACCOを評価するための総合的な実験を行った。
論文 参考訳(メタデータ) (2025-03-18T06:25:03Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Plug-and-Play Regulators for Image-Text Matching [76.28522712930668]
微細な対応と視覚的セマンティックなアライメントの爆発は、画像とテキストのマッチングにおいて大きな可能性を秘めている。
我々は、メッセージ出力を効率的にエンコードして、コンテキストを自動生成し、モーダル表現を集約する、シンプルだが非常に効果的な2つのレギュレータを開発した。
MSCOCOとFlickr30Kデータセットの実験は、複数のモデルで印象的で一貫したR@1ゲインをもたらすことができることを実証している。
論文 参考訳(メタデータ) (2023-03-23T15:42:05Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。