論文の概要: Unlocking Past Information: Temporal Embeddings in Cooperative Bird's
Eye View Prediction
- arxiv url: http://arxiv.org/abs/2401.14325v1
- Date: Thu, 25 Jan 2024 17:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 13:58:54.521941
- Title: Unlocking Past Information: Temporal Embeddings in Cooperative Bird's
Eye View Prediction
- Title(参考訳): 過去の情報を解き放つ:協調的な鳥の目視予測における時間的埋め込み
- Authors: Dominik R\"o{\ss}le and Jeremias Gerner and Klaus Bogenberger and
Daniel Cremers and Stefanie Schmidtner and Torsten Sch\"on
- Abstract要約: 本稿では,現在の観測に歴史的手がかりを取り入れた時間モジュールであるTempCoBEVを紹介する。
我々は,TempCoBEVの有効性と,現在のBEVマップに歴史的手がかりを統合する能力を示し,最適な通信条件下での予測を最大2%,通信障害下での予測を最大19%改善する。
- 参考スコア(独自算出の注目度): 34.68695222573004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate and comprehensive semantic segmentation of Bird's Eye View (BEV) is
essential for ensuring safe and proactive navigation in autonomous driving.
Although cooperative perception has exceeded the detection capabilities of
single-agent systems, prevalent camera-based algorithms in cooperative
perception neglect valuable information derived from historical observations.
This limitation becomes critical during sensor failures or communication issues
as cooperative perception reverts to single-agent perception, leading to
degraded performance and incomplete BEV segmentation maps. This paper
introduces TempCoBEV, a temporal module designed to incorporate historical cues
into current observations, thereby improving the quality and reliability of BEV
map segmentations. We propose an importance-guided attention architecture to
effectively integrate temporal information that prioritizes relevant properties
for BEV map segmentation. TempCoBEV is an independent temporal module that
seamlessly integrates into state-of-the-art camera-based cooperative perception
models. We demonstrate through extensive experiments on the OPV2V dataset that
TempCoBEV performs better than non-temporal models in predicting current and
future BEV map segmentations, particularly in scenarios involving communication
failures. We show the efficacy of TempCoBEV and its capability to integrate
historical cues into the current BEV map, improving predictions under optimal
communication conditions by up to 2% and under communication failures by up to
19%. The code will be published on GitHub.
- Abstract(参考訳): Bird's Eye View(BEV)の正確かつ包括的なセマンティックセマンティックセマンティックセマンティクスは、自律運転における安全で前向きなナビゲーションを保証するために不可欠である。
協調認識は単一エージェントシステムの検出能力を上回るが、協調認識におけるカメラベースアルゴリズムは、歴史的観測から得られた貴重な情報を無視している。
この制限は、センサーの故障やコミュニケーションの問題の間、協調的な知覚が単一エージェントの知覚に逆戻りし、性能低下と不完全なBEVセグメンテーションマップをもたらす。
本稿では,歴史的手がかりを現在の観測に取り入れた時間モジュールであるTempCoBEVを紹介し,BEVマップセグメンテーションの品質と信頼性を向上させる。
本稿では,BEVマップセグメンテーションの関連特性を優先する時間情報を効果的に統合するための重要誘導型アテンションアーキテクチャを提案する。
TempCoBEVは、最先端のカメラベースの協調認識モデルにシームレスに統合される独立した時間モジュールである。
我々は、TempCoBEVが現在および将来のBEVマップセグメンテーションを予測する際に、特に通信障害を伴うシナリオにおいて、非時間モデルよりも優れた性能を発揮するOPV2Vデータセットに関する広範な実験を通して示す。
我々は,TempCoBEVの有効性と,現在のBEVマップに歴史的手がかりを統合する能力を示し,最適な通信条件下での予測を最大2%,通信障害下での予測を最大19%改善する。
コードはgithubで公開されている。
関連論文リスト
- LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation [16.465037559349323]
LET-VIC(LDAR-based End-to-End Tracking framework for Vehicle-Temporal Cooperation)を紹介する。
LET-VICはV2X通信を利用して、車両とインフラの両方のセンサーから空間データと時間データを融合することで、時間知覚を高める。
V2X-Seq-SPDデータセットの実験では、LET-VICはベースラインモデルよりも優れており、少なくともmAPが13.7%、AMOTAが13.1%改善している。
論文 参考訳(メタデータ) (2024-11-22T13:34:29Z) - VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - OE-BevSeg: An Object Informed and Environment Aware Multimodal Framework for Bird's-eye-view Vehicle Semantic Segmentation [57.2213693781672]
Bird's-eye-view (BEV)セマンティックセマンティックセグメンテーションは自律運転システムにおいて重要である。
本稿では,BEVセグメンテーション性能を向上させるエンドツーエンドマルチモーダルフレームワークであるOE-BevSegを提案する。
提案手法は,車両セグメンテーションのためのnuScenesデータセットにおいて,最先端の成果を大きなマージンで達成する。
論文 参考訳(メタデータ) (2024-07-18T03:48:22Z) - Benchmarking and Improving Bird's Eye View Perception Robustness in Autonomous Driving [55.93813178692077]
本稿では,BEVアルゴリズムのレジリエンスを評価するためのベンチマークスイートであるRoboBEVを紹介する。
検出,マップセグメンテーション,深さ推定,占有予測といったタスクにまたがる33の最先端のBEVベースの知覚モデルを評価する。
また, 事前学習や深度自由なBEVトランスフォーメーションなどの戦略が, アウト・オブ・ディストリビューションデータに対するロバスト性を高める上で有効であることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:59:39Z) - TempBEV: Improving Learned BEV Encoders with Combined Image and BEV Space Temporal Aggregation [9.723276622743473]
我々は,両潜伏空間から収集した時間情報を統合した新しい時間的BEVエンコーダであるTempBEVを開発した。
NuScenesデータセットの実験的評価は、3Dオブジェクト検出とBEVセグメンテーションのベースラインに対するTempBEVによる大幅な改善を示している。
論文 参考訳(メタデータ) (2024-04-17T23:49:00Z) - BEVCar: Camera-Radar Fusion for BEV Map and Object Segmentation [22.870994478494566]
共同BEVオブジェクトとマップセグメンテーションのための新しいアプローチであるBEVCarを紹介する。
我々のアプローチの中核的な特徴は、まず生のレーダーデータのポイントベース符号化を学習することにある。
レーダ情報の導入は, 環境問題におけるロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-03-18T13:14:46Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [104.87876441265593]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - CoBEVFusion: Cooperative Perception with LiDAR-Camera Bird's-Eye View
Fusion [0.0]
協調認識における最近のアプローチは、カメラやLiDARのような単一のセンサー情報しか共有していない。
我々は,LiDARとカメラデータを融合してBird's-Eye View(BEV)表現を生成する,CoBEVFusionというフレームワークを提案する。
BEVセマンティックセグメンテーションと3Dオブジェクト検出という2つの認識課題に対して,協調認識データセットOPV2Vを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-09T17:52:26Z) - Generating Evidential BEV Maps in Continuous Driving Space [13.073542165482566]
本稿では,GevBEV という完全確率モデルを提案する。
これは2次元駆動空間を、点ベースの空間ガウス分布を持つ確率的バードアイビュー (BEV) マップとして解釈する。
GevBEVは、学習した不確実性から共有する最も重要な情報のみを選択することで、通信オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2023-02-06T17:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。