論文の概要: Unlocking Past Information: Temporal Embeddings in Cooperative Bird's
Eye View Prediction
- arxiv url: http://arxiv.org/abs/2401.14325v1
- Date: Thu, 25 Jan 2024 17:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 13:58:54.521941
- Title: Unlocking Past Information: Temporal Embeddings in Cooperative Bird's
Eye View Prediction
- Title(参考訳): 過去の情報を解き放つ:協調的な鳥の目視予測における時間的埋め込み
- Authors: Dominik R\"o{\ss}le and Jeremias Gerner and Klaus Bogenberger and
Daniel Cremers and Stefanie Schmidtner and Torsten Sch\"on
- Abstract要約: 本稿では,現在の観測に歴史的手がかりを取り入れた時間モジュールであるTempCoBEVを紹介する。
我々は,TempCoBEVの有効性と,現在のBEVマップに歴史的手がかりを統合する能力を示し,最適な通信条件下での予測を最大2%,通信障害下での予測を最大19%改善する。
- 参考スコア(独自算出の注目度): 34.68695222573004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate and comprehensive semantic segmentation of Bird's Eye View (BEV) is
essential for ensuring safe and proactive navigation in autonomous driving.
Although cooperative perception has exceeded the detection capabilities of
single-agent systems, prevalent camera-based algorithms in cooperative
perception neglect valuable information derived from historical observations.
This limitation becomes critical during sensor failures or communication issues
as cooperative perception reverts to single-agent perception, leading to
degraded performance and incomplete BEV segmentation maps. This paper
introduces TempCoBEV, a temporal module designed to incorporate historical cues
into current observations, thereby improving the quality and reliability of BEV
map segmentations. We propose an importance-guided attention architecture to
effectively integrate temporal information that prioritizes relevant properties
for BEV map segmentation. TempCoBEV is an independent temporal module that
seamlessly integrates into state-of-the-art camera-based cooperative perception
models. We demonstrate through extensive experiments on the OPV2V dataset that
TempCoBEV performs better than non-temporal models in predicting current and
future BEV map segmentations, particularly in scenarios involving communication
failures. We show the efficacy of TempCoBEV and its capability to integrate
historical cues into the current BEV map, improving predictions under optimal
communication conditions by up to 2% and under communication failures by up to
19%. The code will be published on GitHub.
- Abstract(参考訳): Bird's Eye View(BEV)の正確かつ包括的なセマンティックセマンティックセマンティックセマンティクスは、自律運転における安全で前向きなナビゲーションを保証するために不可欠である。
協調認識は単一エージェントシステムの検出能力を上回るが、協調認識におけるカメラベースアルゴリズムは、歴史的観測から得られた貴重な情報を無視している。
この制限は、センサーの故障やコミュニケーションの問題の間、協調的な知覚が単一エージェントの知覚に逆戻りし、性能低下と不完全なBEVセグメンテーションマップをもたらす。
本稿では,歴史的手がかりを現在の観測に取り入れた時間モジュールであるTempCoBEVを紹介し,BEVマップセグメンテーションの品質と信頼性を向上させる。
本稿では,BEVマップセグメンテーションの関連特性を優先する時間情報を効果的に統合するための重要誘導型アテンションアーキテクチャを提案する。
TempCoBEVは、最先端のカメラベースの協調認識モデルにシームレスに統合される独立した時間モジュールである。
我々は、TempCoBEVが現在および将来のBEVマップセグメンテーションを予測する際に、特に通信障害を伴うシナリオにおいて、非時間モデルよりも優れた性能を発揮するOPV2Vデータセットに関する広範な実験を通して示す。
我々は,TempCoBEVの有効性と,現在のBEVマップに歴史的手がかりを統合する能力を示し,最適な通信条件下での予測を最大2%,通信障害下での予測を最大19%改善する。
コードはgithubで公開されている。
関連論文リスト
- DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [111.13119809216313]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based
Relocalization [86.63465798307728]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - CoBEVFusion: Cooperative Perception with LiDAR-Camera Bird's-Eye View
Fusion [0.0]
協調認識における最近のアプローチは、カメラやLiDARのような単一のセンサー情報しか共有していない。
我々は,LiDARとカメラデータを融合してBird's-Eye View(BEV)表現を生成する,CoBEVFusionというフレームワークを提案する。
BEVセマンティックセグメンテーションと3Dオブジェクト検出という2つの認識課題に対して,協調認識データセットOPV2Vを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-09T17:52:26Z) - Asynchrony-Robust Collaborative Perception via Bird's Eye View Flow [45.670727141966545]
協調的知覚は、複数のエージェント間のコミュニケーションを促進することによって、各エージェントの知覚能力を高めることができる。
しかし、エージェント間の時間的同期は、通信遅延、割り込み、時計の不一致により、現実世界では避けられない。
本稿では,鳥の視線(BEV)の流れをベースとした,非同期・ロバスト協調認識システムCoBEVFlowを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:45:56Z) - Generating Evidential BEV Maps in Continuous Driving Space [13.073542165482566]
本稿では,GevBEV という完全確率モデルを提案する。
これは2次元駆動空間を、点ベースの空間ガウス分布を持つ確率的バードアイビュー (BEV) マップとして解釈する。
GevBEVは、学習した不確実性から共有する最も重要な情報のみを選択することで、通信オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2023-02-06T17:05:50Z) - BEVFormer v2: Adapting Modern Image Backbones to Bird's-Eye-View
Recognition via Perspective Supervision [101.36648828734646]
本稿では、視線を監督する新しい鳥眼ビュー(BEV)検出器について述べる。
提案手法は,従来および現代の画像バックボーンの幅広いスペクトルを用いて検証し,大規模なnuScenesデータセット上で新たなSoTA結果を得る。
論文 参考訳(メタデータ) (2022-11-18T18:59:48Z) - Delving into the Devils of Bird's-eye-view Perception: A Review,
Evaluation and Recipe [115.31507979199564]
鳥眼視(BEV)における知覚タスクの強力な表現の学習は、産業と学界の両方から注目されつつある。
センサーの構成が複雑化するにつれて、異なるセンサーからの複数のソース情報の統合と、統一されたビューにおける特徴の表現が重要になる。
BEV知覚の中核的な問題は、(a)視点からBEVへの視点変換を通して失われた3D情報を再構成する方法、(b)BEVグリッドにおける基底真理アノテーションの取得方法、(d)センサー構成が異なるシナリオでアルゴリズムを適応・一般化する方法にある。
論文 参考訳(メタデータ) (2022-09-12T15:29:13Z) - CoBEVT: Cooperative Bird's Eye View Semantic Segmentation with Sparse
Transformers [36.838065731893735]
CoBEVTは、BEVマップ予測を協調的に生成できる最初の汎用マルチエージェント認識フレームワークである。
CoBEVTは協調的BEVセマンティックセグメンテーションのための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-05T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。