論文の概要: Generating Evidential BEV Maps in Continuous Driving Space
- arxiv url: http://arxiv.org/abs/2302.02928v2
- Date: Mon, 4 Sep 2023 13:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:47:40.576593
- Title: Generating Evidential BEV Maps in Continuous Driving Space
- Title(参考訳): 連続運転空間におけるBEVマップ生成
- Authors: Yunshuang Yuan, Hao Cheng, Michael Ying Yang and Monika Sester
- Abstract要約: 本稿では,GevBEV という完全確率モデルを提案する。
これは2次元駆動空間を、点ベースの空間ガウス分布を持つ確率的バードアイビュー (BEV) マップとして解釈する。
GevBEVは、学習した不確実性から共有する最も重要な情報のみを選択することで、通信オーバーヘッドを低減する。
- 参考スコア(独自算出の注目度): 13.073542165482566
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Safety is critical for autonomous driving, and one aspect of improving safety
is to accurately capture the uncertainties of the perception system, especially
knowing the unknown. Different from only providing deterministic or
probabilistic results, e.g., probabilistic object detection, that only provide
partial information for the perception scenario, we propose a complete
probabilistic model named GevBEV. It interprets the 2D driving space as a
probabilistic Bird's Eye View (BEV) map with point-based spatial Gaussian
distributions, from which one can draw evidence as the parameters for the
categorical Dirichlet distribution of any new sample point in the continuous
driving space. The experimental results show that GevBEV not only provides more
reliable uncertainty quantification but also outperforms the previous works on
the benchmarks OPV2V and V2V4Real of BEV map interpretation for cooperative
perception in simulated and real-world driving scenarios, respectively. A
critical factor in cooperative perception is the data transmission size through
the communication channels. GevBEV helps reduce communication overhead by
selecting only the most important information to share from the learned
uncertainty, reducing the average information communicated by 87% with only a
slight performance drop. Our code is published at
https://github.com/YuanYunshuang/GevBEV.
- Abstract(参考訳): 安全性は自動運転には不可欠であり、安全性を向上させる1つの側面は、認識システムの不確実性を正確に捉えることである。
知覚シナリオに対する部分的情報のみを提供する確率的対象検出など,決定論的あるいは確率的結果のみを提供するのと異なり,gevbev という完全確率的モデルを提案する。
2次元駆動空間を、点ベースの空間ガウス分布を持つ確率的バードズアイビュー (BEV) マップとして解釈し、そこから連続駆動空間内の任意の新しい標本点のカテゴリー的ディリクレ分布のパラメータとして証拠を引き出すことができる。
実験の結果、GevBEVはより信頼性の高い不確実性定量化を提供するだけでなく、シミュレーションおよび実世界の運転シナリオにおける協調認識のためのBEVマップ解釈のOPV2VとV2V4Realのベンチマークにおける先行研究よりも優れていた。
協調的知覚における重要な要因は、通信チャネルを通じたデータ伝送サイズである。
gevbevは、学習した不確実性から共有すべき最も重要な情報のみを選択することで、コミュニケーションのオーバーヘッドを削減するのに役立つ。
私たちのコードはhttps://github.com/yuanyunshuang/gevbevで公開しています。
関連論文リスト
- BEVPose: Unveiling Scene Semantics through Pose-Guided Multi-Modal BEV Alignment [8.098296280937518]
本稿では,カメラとライダーデータからBEV表現を統合するフレームワークであるBEVPoseについて,センサポーズを誘導監視信号として用いた。
ポーズ情報を活用することで,環境の幾何学的側面と意味的側面の両方を捉えた潜在的BEV埋め込みの学習を容易にし,マルチモーダルな感覚入力を調整・融合する。
論文 参考訳(メタデータ) (2024-10-28T12:40:27Z) - Unlocking Past Information: Temporal Embeddings in Cooperative Bird's
Eye View Prediction [34.68695222573004]
本稿では,現在の観測に歴史的手がかりを取り入れた時間モジュールであるTempCoBEVを紹介する。
我々は,TempCoBEVの有効性と,現在のBEVマップに歴史的手がかりを統合する能力を示し,最適な通信条件下での予測を最大2%,通信障害下での予測を最大19%改善する。
論文 参考訳(メタデータ) (2024-01-25T17:21:35Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - ProbVLM: Probabilistic Adapter for Frozen Vision-Language Models [69.50316788263433]
本稿では,事前学習された視覚言語モデルの埋め込みに対する確率分布を推定する確率的アダプタProbVLMを提案する。
本稿では,検索タスクにおける不確実性埋め込みのキャリブレーションを定量化し,ProbVLMが他の手法よりも優れていることを示す。
本稿では,大規模な事前学習型潜伏拡散モデルを用いて,埋め込み分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T18:16:06Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - DiffBEV: Conditional Diffusion Model for Bird's Eye View Perception [14.968177102647783]
そこで我々は,より包括的なBEV表現を生成するために拡散モデルの可能性を活用するために,DiffBEVというエンドツーエンドフレームワークを提案する。
実際に,粗いサンプルを識別し,意味的特徴を洗練する拡散モデルの訓練を指導する3種類の条件を設計する。
DiffBEV が nuScenes データセット上で 25.9% mIoU を達成することを示す。
論文 参考訳(メタデータ) (2023-03-15T02:42:48Z) - Flexible Amortized Variational Inference in qBOLD MRI [56.4324135502282]
データから酸素抽出率(OEF)と脱酸素血液量(DBV)をより明瞭に決定する。
既存の推論手法では、DBVを過大評価しながら非常にノイズの多い、過小評価されたEFマップが得られる傾向にある。
本研究は, OEFとDBVの可算分布を推定できる確率論的機械学習手法について述べる。
論文 参考訳(メタデータ) (2022-03-11T10:47:16Z) - Estimation of Driver's Gaze Region from Head Position and Orientation
using Probabilistic Confidence Regions [43.9008720663172]
スマートな車両は人間の行動を理解し、危険な状況を避けるために行動を予測する必要がある。
運転タスクに関連する最も重要な側面の1つは、ドライバーの視覚的注意です。
本稿では,ドライバの視覚的注意を表現したサルエント領域を作成するための確率モデルに基づく定式化を提案する。
論文 参考訳(メタデータ) (2020-12-23T15:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。