論文の概要: Calibration-free BEV Representation for Infrastructure Perception
- arxiv url: http://arxiv.org/abs/2303.03583v2
- Date: Fri, 14 Apr 2023 02:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 16:19:14.649902
- Title: Calibration-free BEV Representation for Infrastructure Perception
- Title(参考訳): インフラストラクチャ認識のための校正不要なBEV表現
- Authors: Siqi Fan, Zhe Wang, Xiaoliang Huo, Yan Wang, Jingjing Liu
- Abstract要約: キャリブレーションパラメータを使わずにBEV表現を3次元で検出し,さらなる深度監視を行うBEV表現不要なBEVネットワークを提案する。
DAIR-V2Xの実験結果から,CBRはカメラパラメータを使わずに許容性能を達成でき,キャリブレーションノイズの影響を受けないことが明らかとなった。
- 参考スコア(独自算出の注目度): 13.932616053644038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective BEV object detection on infrastructure can greatly improve traffic
scenes understanding and vehicle-toinfrastructure (V2I) cooperative perception.
However, cameras installed on infrastructure have various postures, and
previous BEV detection methods rely on accurate calibration, which is difficult
for practical applications due to inevitable natural factors (e.g., wind and
snow). In this paper, we propose a Calibration-free BEV Representation (CBR)
network, which achieves 3D detection based on BEV representation without
calibration parameters and additional depth supervision. Specifically, we
utilize two multi-layer perceptrons for decoupling the features from
perspective view to front view and birdeye view under boxes-induced foreground
supervision. Then, a cross-view feature fusion module matches features from
orthogonal views according to similarity and conducts BEV feature enhancement
with front view features. Experimental results on DAIR-V2X demonstrate that CBR
achieves acceptable performance without any camera parameters and is naturally
not affected by calibration noises. We hope CBR can serve as a baseline for
future research addressing practical challenges of infrastructure perception.
- Abstract(参考訳): インフラ上での効果的なBEVオブジェクト検出は、交通状況の理解とV2I協調認識を大幅に改善することができる。
しかし、インフラに設置されたカメラには様々な姿勢があり、以前のBEV検出方法は正確なキャリブレーションに依存しており、必然的な自然要因(風や雪など)のために実用化が難しい。
本稿では,キャリブレーションパラメータを使わずに,BEV表現に基づく3次元検出を実現するキャリブレーションフリーなBEV表現(CBR)ネットワークを提案する。
具体的には,多層パーセプトロンを2つ使用して,ボックスによる前景監督下での視点から正面視,鳥眼視へ特徴を分離する。
そして、断面特徴融合モジュールは、類似性に応じて直交ビューの特徴と一致し、フロントビュー特徴とBEV特徴強調を行う。
DAIR-V2Xの実験結果から,CBRはカメラパラメータを使わずに許容性能を達成でき,キャリブレーションノイズの影響を受けないことが明らかとなった。
インフラ認識の実践的課題に対処する将来の研究のベースラインとして、CBRが役立てられることを願っている。
関連論文リスト
- Robust Bird's Eye View Segmentation by Adapting DINOv2 [3.236198583140341]
低ランク適応(LoRA)を用いた視覚基礎モデルDINOv2をBEV推定に適用する。
我々の実験は、様々な汚職下でのBEV知覚の堅牢性を高めることを示した。
また,適応表現の有効性を,学習可能なパラメータの少ないこと,学習中の収束の高速化の観点から示す。
論文 参考訳(メタデータ) (2024-09-16T12:23:35Z) - BEV$^2$PR: BEV-Enhanced Visual Place Recognition with Structural Cues [44.96177875644304]
本稿では,鳥眼ビュー(BEV)における構造的手がかりを1台のカメラから活用して,画像に基づく視覚的位置認識(VPR)フレームワークを提案する。
BEV$2$PRフレームワークは、単一のカメラに基づいて視覚的手がかりと空間的認識の両方を持つ複合記述子を生成する。
論文 参考訳(メタデータ) (2024-03-11T10:46:43Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [104.87876441265593]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - FB-BEV: BEV Representation from Forward-Backward View Transformations [131.11787050205697]
本稿では,Bird-Eye-View (BEV) 表現のためのビュートランスフォーメーションモジュール (VTM) を提案する。
我々は提案したモジュールをFB-BEVでインスタンス化し、nuScenesテストセット上で62.4%のNDSの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-08-04T10:26:55Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - Leveraging BEV Representation for 360-degree Visual Place Recognition [14.497501941931759]
本稿では,360度視覚位置認識(VPR)におけるBird's Eye View表現の利点について検討する。
本稿では,特徴抽出,特徴集約,視覚-LiDAR融合におけるBEV表現を利用した新しいネットワークアーキテクチャを提案する。
提案手法は,2つのデータセットのアブレーションおよび比較研究において評価される。
論文 参考訳(メタデータ) (2023-05-23T08:29:42Z) - BEVFormer v2: Adapting Modern Image Backbones to Bird's-Eye-View
Recognition via Perspective Supervision [101.36648828734646]
本稿では、視線を監督する新しい鳥眼ビュー(BEV)検出器について述べる。
提案手法は,従来および現代の画像バックボーンの幅広いスペクトルを用いて検証し,大規模なnuScenesデータセット上で新たなSoTA結果を得る。
論文 参考訳(メタデータ) (2022-11-18T18:59:48Z) - PersDet: Monocular 3D Detection in Perspective Bird's-Eye-View [26.264139933212892]
Bird's-Eye-View (BEV)は、自律走行とロボット工学のための他の3D検出器よりも優れている。
画像特徴をBEVに変換するには、特別なオペレーターが特徴サンプリングを行う必要がある。
特徴サンプリングを必要としない新しいBEV表現であるBEVの視点で物体を検出することを提案する。
論文 参考訳(メタデータ) (2022-08-19T15:19:20Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。