論文の概要: Practical Collaborative Perception: A Framework for Asynchronous and
Multi-Agent 3D Object Detection
- arxiv url: http://arxiv.org/abs/2307.01462v1
- Date: Tue, 4 Jul 2023 03:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 18:27:56.667115
- Title: Practical Collaborative Perception: A Framework for Asynchronous and
Multi-Agent 3D Object Detection
- Title(参考訳): 実用的なコラボレーティブ知覚:非同期およびマルチエージェント3dオブジェクト検出のためのフレームワーク
- Authors: Minh-Quan Dao, Julie Stephany Berrio, Vincent Fr\'emont, Mao Shan,
Elwan H\'ery, and Stewart Worrall
- Abstract要約: 我々は、複数フレーム検出モデルの検出精度を高めるために、点雲の連結における影効果の補正に関する以前の研究を拡張した。
車両間通信(V2X)を用いたマルチエージェントコラボレーションにより,単車間認識の性能をさらに向上させる。
- 参考スコア(独自算出の注目度): 6.58839961797536
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we improve the single-vehicle 3D object detection models using
LiDAR by extending their capacity to process point cloud sequences instead of
individual point clouds. In this step, we extend our previous work on
rectification of the shadow effect in the concatenation of point clouds to
boost the detection accuracy of multi-frame detection models. Our extension
includes incorporating HD Map and distilling an Oracle model. Next, we further
increase the performance of single-vehicle perception using multi-agent
collaboration via Vehicle-to-everything (V2X) communication. We devise a simple
yet effective collaboration method that achieves better bandwidth-performance
tradeoffs than prior arts while minimizing changes made to single-vehicle
detection models and assumptions on inter-agent synchronization. Experiments on
the V2X-Sim dataset show that our collaboration method achieves 98% performance
of the early collaboration while consuming the equivalent amount of bandwidth
usage of late collaboration which is 0.03% of early collaboration. The code
will be released at https://github.com/quan-dao/practical-collab-perception.
- Abstract(参考訳): 本稿では,LiDARを用いた単車体3次元物体検出モデルの改良を行い,その容量を個々の点雲の代わりにプロセスポイントクラウドシーケンスに拡張する。
本稿では,複数フレーム検出モデルの検出精度を高めるため,点雲の連結における影効果の補正に関するこれまでの研究を拡張した。
拡張にはHD Mapの導入とOracleモデルの蒸留が含まれています。
次に、V2X通信によるマルチエージェント協調による単車認識の性能をさらに向上させる。
我々は,単一車両検出モデルの変更やエージェント間同期の仮定を最小限に抑えながら,従来技術よりも帯域幅パフォーマンスのトレードオフを実現する,シンプルかつ効果的なコラボレーション手法を考案する。
v2x-simデータセットを用いた実験では,初期コラボレーションの0.03%に相当する遅延コラボレーションの帯域幅使用量を消費しながら,初期コラボレーションの98%のパフォーマンスを実現していることが示された。
コードはhttps://github.com/quan-dao/practical-collab-perceptionでリリースされる。
関連論文リスト
- Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - HEAD: A Bandwidth-Efficient Cooperative Perception Approach for Heterogeneous Connected and Autonomous Vehicles [9.10239345027499]
HEADは3次元物体検出ネットワークにおける分類と回帰ヘッドの特徴を融合する手法である。
実験の結果,HEADは通信帯域幅と知覚性能を効果的にバランスさせる融合法であることがわかった。
論文 参考訳(メタデータ) (2024-08-27T22:05:44Z) - RoCo:Robust Collaborative Perception By Iterative Object Matching and Pose Adjustment [9.817492112784674]
複数の車両との協調自動運転は通常、複数のモードからのデータ融合を必要とする。
協調的な知覚では、モダリティに基づく物体検出の品質は、エージェント間の相対的なポーズ誤差に非常に敏感である。
反復的なオブジェクトマッチングとエージェントポーズ調整を行うための新しい教師なしフレームワークであるRoCoを提案する。
論文 参考訳(メタデータ) (2024-08-01T03:29:33Z) - Self-Localized Collaborative Perception [49.86110931859302]
我々は,新しい自己局在型協調認識システムであるMathttCoBEVGlue$を提案する。
$mathttCoBEVGlue$は、エージェント間の相対的なポーズを提供する新しい空間アライメントモジュールである。
$mathttCoBEVGlue$は任意のローカライゼーションノイズとアタックの下で最先端の検出性能を達成する。
論文 参考訳(メタデータ) (2024-06-18T15:26:54Z) - Mutual Information-driven Triple Interaction Network for Efficient Image
Dehazing [54.168567276280505]
画像デハージングのための相互情報駆動型トリプルインタラクションネットワーク(MITNet)を提案する。
振幅誘導ヘイズ除去と呼ばれる第1段階は、ヘイズ除去のためのヘイズ画像の振幅スペクトルを復元することを目的としている。
第2段階は位相誘導構造が洗練され、位相スペクトルの変換と微細化を学ぶことに尽力した。
論文 参考訳(メタデータ) (2023-08-14T08:23:58Z) - Attention Based Feature Fusion For Multi-Agent Collaborative Perception [4.120288148198388]
グラフアテンションネットワーク(GAT)の形での中間的協調認識ソリューションを提案する。
提案手法は,複数の連結エージェント間で交換される中間表現を融合するアテンションベースのアグリゲーション戦略を開発する。
このアプローチは、チャネルレベルと空間レベルの中間特徴写像における重要な領域を適応的に強調することにより、オブジェクト検出精度が向上する。
論文 参考訳(メタデータ) (2023-05-03T12:06:11Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - CoPEM: Cooperative Perception Error Models for Autonomous Driving [20.60246432605745]
我々は、隠蔽対象の誤検知エラーとして現れる自律走行車(AV)の(車載)知覚に焦点を当てる。
本稿では,仮想テスト環境におけるV2Xソリューションの効果的な統合を実現するために,協調知覚誤りモデル(coPEM)の概念を導入する。
論文 参考訳(メタデータ) (2022-11-21T04:40:27Z) - Online V2X Scheduling for Raw-Level Cooperative Perception [21.099819062731463]
視界が単独の知性を制限すると、コネクテッドカーの協調的な認識が救助にやってくる。
本稿では,センサ共有スケジューリングのエネルギー最小化問題を定式化して生レベルの協調認識モデルを提案する。
本稿では,対数的性能損失を伴うオンライン学習に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:16:45Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。