論文の概要: An Efficient and Robust Object-Level Cooperative Perception Framework
for Connected and Automated Driving
- arxiv url: http://arxiv.org/abs/2210.06289v1
- Date: Wed, 12 Oct 2022 15:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 16:05:49.928532
- Title: An Efficient and Robust Object-Level Cooperative Perception Framework
for Connected and Automated Driving
- Title(参考訳): 連結・自動運転のための効率的かつロバストなオブジェクトレベル協調認識フレームワーク
- Authors: Zhiying Song, Fuxi Wen, Hailiang Zhang, Jun Li
- Abstract要約: 本稿では,コネクテッド・オートマチック・ドライブのための効率的なオブジェクトレベルの協調認識フレームワークを提案する。
3Dバウンディングボックス、位置、ポーズのデータが放送され、接続された車両間で受信され、オブジェクトレベルで融合される。
実験の結果、各フレームごとに異なる車両からオブジェクトを関連付けるのに5msしかかからず、異なるレベルの位置と方向誤差に対して堅牢な性能が達成されている。
- 参考スコア(独自算出の注目度): 8.65435011972241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative perception is challenging for connected and automated driving
because of the real-time requirements and bandwidth limitation, especially when
the vehicle location and pose information are inaccurate. We propose an
efficient object-level cooperative perception framework, in which data of the
3D bounding boxes, location, and pose are broadcast and received between the
connected vehicles, then fused at the object level. Two Iterative Closest Point
(ICP) and Optimal Transport theory-based matching algorithms are developed to
maximize the total correlations between the 3D bounding boxes jointly detected
by the vehicles. Experiment results show that it only takes 5ms to associate
objects from different vehicles for each frame, and robust performance is
achieved for different levels of location and heading errors. Meanwhile, the
proposed framework outperforms the state-of-the-art benchmark methods when
location or pose errors occur.
- Abstract(参考訳): 特に車両の位置やポーズ情報が不正確である場合には、リアルタイムの要求と帯域制限のため、コラボレーティブな認識は自動運転では困難である。
本研究では,3dバウンディングボックス,位置,ポーズのデータを,連結車両間でブロードキャストして受信し,オブジェクトレベルで融合する,効率的なオブジェクトレベルの協調知覚フレームワークを提案する。
2つの反復閉点(ICP)と最適輸送理論に基づくマッチングアルゴリズムを開発し、車両が共同で検出した3次元境界箱間の総相関を最大化する。
実験の結果、各フレームごとに異なる車両からオブジェクトを関連付けるのに5msしかかからず、異なるレベルの位置と方向誤差に対して堅牢な性能が達成されている。
一方、提案フレームワークは、位置やエラー発生時の最先端ベンチマーク手法よりも優れている。
関連論文リスト
- RoCo:Robust Collaborative Perception By Iterative Object Matching and Pose Adjustment [9.817492112784674]
複数の車両との協調自動運転は通常、複数のモードからのデータ融合を必要とする。
協調的な知覚では、モダリティに基づく物体検出の品質は、エージェント間の相対的なポーズ誤差に非常に敏感である。
反復的なオブジェクトマッチングとエージェントポーズ調整を行うための新しい教師なしフレームワークであるRoCoを提案する。
論文 参考訳(メタデータ) (2024-08-01T03:29:33Z) - Self-Localized Collaborative Perception [49.86110931859302]
我々は,新しい自己局在型協調認識システムであるMathttCoBEVGlue$を提案する。
$mathttCoBEVGlue$は、エージェント間の相対的なポーズを提供する新しい空間アライメントモジュールである。
$mathttCoBEVGlue$は任意のローカライゼーションノイズとアタックの下で最先端の検出性能を達成する。
論文 参考訳(メタデータ) (2024-06-18T15:26:54Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - Self-supervised Adaptive Weighting for Cooperative Perception in V2V
Communications [11.772899644895281]
協調知覚は、単車知覚の欠点に対処するための効果的なアプローチである。
現在の協調核融合モデルは教師付きモデルに依存しており、任意のチャネル障害による動的性能劣化には対処しない。
チャネル歪みの悪影響を軽減するために, 中間核融合のための自己教師付き適応重み付けモデルを提案する。
論文 参考訳(メタデータ) (2023-12-16T06:21:09Z) - Cooperative Perception with Learning-Based V2V communications [11.772899644895281]
本研究は,コミュニケーションチャネル障害に対する協調認識会計の性能を解析する。
中間特性のロバスト性を活用するために, 新たなレイトフュージョン方式を提案する。
協調によって生じるデータサイズを圧縮するために、畳み込みニューラルネットワークベースのオートエンコーダを採用する。
論文 参考訳(メタデータ) (2023-11-17T05:41:23Z) - Poses as Queries: Image-to-LiDAR Map Localization with Transformers [5.704968411509063]
商用化による高精度車両のローカライゼーションは、高レベルの自動運転タスクにとって重要な技術である。
このようなクロスモーダルセンサデータ間の対応を見出すことによる推定ポーズは困難である。
本稿では,トランスフォーマーをベースとした新しいニューラルネットワークを提案し,エンドツーエンドで2次元画像を3次元LiDARマップに登録する。
論文 参考訳(メタデータ) (2023-05-07T14:57:58Z) - ECO-TR: Efficient Correspondences Finding Via Coarse-to-Fine Refinement [80.94378602238432]
粗大な処理で対応性を見出すことにより、ECO-TR(Correspondence Efficient Transformer)と呼ばれる効率的な構造を提案する。
これを実現するために、複数の変圧器ブロックは段階的に連結され、予測された座標を徐々に洗練する。
種々のスパースタスクと密マッチングタスクの実験は、既存の最先端技術に対する効率性と有効性の両方において、我々の手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-09-25T13:05:33Z) - Robust Self-Supervised LiDAR Odometry via Representative Structure
Discovery and 3D Inherent Error Modeling [67.75095378830694]
そこで我々は,2段階のオドメトリ推定ネットワークを構築し,一連の部分領域変換を推定してエゴモーメントを求める。
本稿では,トレーニング,推論,マッピングフェーズにおける信頼できない構造の影響を軽減することを目的とする。
我々の2フレームのオードメトリーは、翻訳/回転誤差の点で、過去の芸術の状態を16%/12%上回っている。
論文 参考訳(メタデータ) (2022-02-27T12:52:27Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。