論文の概要: Self-Localized Collaborative Perception
- arxiv url: http://arxiv.org/abs/2406.12712v1
- Date: Tue, 18 Jun 2024 15:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 18:18:55.599725
- Title: Self-Localized Collaborative Perception
- Title(参考訳): 自己ローカライズされた協調的知覚
- Authors: Zhenyang Ni, Zixing Lei, Yifan Lu, Dingju Wang, Chen Feng, Yanfeng Wang, Siheng Chen,
- Abstract要約: 我々は,新しい自己局在型協調認識システムであるMathttCoBEVGlue$を提案する。
$mathttCoBEVGlue$は、エージェント間の相対的なポーズを提供する新しい空間アライメントモジュールである。
$mathttCoBEVGlue$は任意のローカライゼーションノイズとアタックの下で最先端の検出性能を達成する。
- 参考スコア(独自算出の注目度): 49.86110931859302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative perception has garnered considerable attention due to its capacity to address several inherent challenges in single-agent perception, including occlusion and out-of-range issues. However, existing collaborative perception systems heavily rely on precise localization systems to establish a consistent spatial coordinate system between agents. This reliance makes them susceptible to large pose errors or malicious attacks, resulting in substantial reductions in perception performance. To address this, we propose~$\mathtt{CoBEVGlue}$, a novel self-localized collaborative perception system, which achieves more holistic and robust collaboration without using an external localization system. The core of~$\mathtt{CoBEVGlue}$ is a novel spatial alignment module, which provides the relative poses between agents by effectively matching co-visible objects across agents. We validate our method on both real-world and simulated datasets. The results show that i) $\mathtt{CoBEVGlue}$ achieves state-of-the-art detection performance under arbitrary localization noises and attacks; and ii) the spatial alignment module can seamlessly integrate with a majority of previous methods, enhancing their performance by an average of $57.7\%$. Code is available at https://github.com/VincentNi0107/CoBEVGlue
- Abstract(参考訳): 協調的知覚は、排他的・外的問題を含む、単一エージェント的知覚におけるいくつかの固有の課題に対処する能力のために、かなりの注目を集めている。
しかし、既存の協調認識システムはエージェント間の一貫した空間座標系を確立するために正確な位置決めシステムに大きく依存している。
この依存により、大きなポーズエラーや悪意のある攻撃を受けやすくなり、認識性能が大幅に低下する。
そこで本稿では, 外部ローカライゼーションシステムを使わずに, より包括的で堅牢なコラボレーションを実現する, 自己局在型協調認識システムである~$\matht{CoBEVGlue}$を提案する。
The core of~$\mathtt{CoBEVGlue}$ is a novel spatial alignment module, which provides the relative poses between agent by effectively matching co-visible objects across agent。
本手法を実世界とシミュレーションデータセットの両方で検証する。
その結果は
i) $\mathtt{CoBEVGlue}$は任意のローカライゼーションノイズとアタックの下で最先端検出性能を達成する。
二 空間アライメントモジュールは、従来手法の大多数とシームレスに統合することができ、平均57.7\%$で性能を向上させることができる。
コードはhttps://github.com/VincentNi0107/CoBEVGlueで入手できる。
関連論文リスト
- RoCo:Robust Collaborative Perception By Iterative Object Matching and Pose Adjustment [9.817492112784674]
複数の車両との協調自動運転は通常、複数のモードからのデータ融合を必要とする。
協調的な知覚では、モダリティに基づく物体検出の品質は、エージェント間の相対的なポーズ誤差に非常に敏感である。
反復的なオブジェクトマッチングとエージェントポーズ調整を行うための新しい教師なしフレームワークであるRoCoを提案する。
論文 参考訳(メタデータ) (2024-08-01T03:29:33Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Scalable Multi-agent Covering Option Discovery based on Kronecker Graphs [49.71319907864573]
本稿では,分解が容易なマルチエージェントスキル発見法を提案する。
我々のキーとなる考え方は、合同状態空間をクロネッカーグラフとして近似することであり、そのフィドラーベクトルを直接見積もることができる。
ラプラシアンスペクトルを直接計算することは、無限大の状態空間を持つタスクには難易度が高いことを考慮し、さらに本手法の深層学習拡張を提案する。
論文 参考訳(メタデータ) (2023-07-21T14:53:12Z) - Supervision Interpolation via LossMix: Generalizing Mixup for Object
Detection and Beyond [10.25372189905226]
LossMixは単純だが汎用的で効果的な正規化であり、物体検出器の性能と堅牢性を高める。
PASCAL VOCとMS COCOデータセットの実証結果は、LossMixが検出のための最先端の手法を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-03-18T06:13:30Z) - Robust Collaborative 3D Object Detection in Presence of Pose Errors [31.039703988342243]
協調的な3Dオブジェクト検出は、複数のエージェント間の情報交換を利用して精度を高める。
実際には、不完全局所化によるポーズ推定誤差は、空間的メッセージの不整合を引き起こす。
未知のポーズエラーに対して堅牢な新しいハイブリッドコラボレーションフレームワークであるCoAlignを提案する。
論文 参考訳(メタデータ) (2022-11-14T09:11:14Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Ego-Motion Alignment from Face Detections for Collaborative Augmented
Reality [5.33024001730262]
トラッカーエゴとともに互いの顔や眼鏡を検出することは、局所座標系を空間的に関連付けるのに十分な条件を与えることを示す。
検出された眼鏡は、確実にアンカーとして機能し、対象とする実用用途に十分な精度をもたらすことができる。
論文 参考訳(メタデータ) (2020-10-05T16:57:48Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。