論文の概要: Surround-view Fisheye BEV-Perception for Valet Parking: Dataset,
Baseline and Distortion-insensitive Multi-task Framework
- arxiv url: http://arxiv.org/abs/2212.04111v1
- Date: Thu, 8 Dec 2022 07:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:42:59.942197
- Title: Surround-view Fisheye BEV-Perception for Valet Parking: Dataset,
Baseline and Distortion-insensitive Multi-task Framework
- Title(参考訳): バレットパーキングのためのサラウンドビューフィッシュアイ bev-perception:データセット、ベースライン、歪み非感受性マルチタスクフレームワーク
- Authors: Zizhang Wu, Yuanzhu Gan, Xianzhi Li, Yunzhe Wu, Xiaoquan Wang, Tianhao
Xu, Fan Wang
- Abstract要約: バレット駐車シーン下での目視魚眼知覚は、自律運転において不可欠かつ不可欠である。
魚眼パーキングデータセットと呼ばれる大規模魚眼データセットを導入する。
また、リアルタイムの歪みに敏感なマルチタスク・フレームワーク、フィッシュアイ知覚ネットワーク(FPNet)を提案する。
- 参考スコア(独自算出の注目度): 14.165082243555988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surround-view fisheye perception under valet parking scenes is fundamental
and crucial in autonomous driving. Environmental conditions in parking lots
perform differently from the common public datasets, such as imperfect light
and opacity, which substantially impacts on perception performance. Most
existing networks based on public datasets may generalize suboptimal results on
these valet parking scenes, also affected by the fisheye distortion. In this
article, we introduce a new large-scale fisheye dataset called Fisheye Parking
Dataset(FPD) to promote the research in dealing with diverse real-world
surround-view parking cases. Notably, our compiled FPD exhibits excellent
characteristics for different surround-view perception tasks. In addition, we
also propose our real-time distortion-insensitive multi-task framework Fisheye
Perception Network (FPNet), which improves the surround-view fisheye BEV
perception by enhancing the fisheye distortion operation and multi-task
lightweight designs. Extensive experiments validate the effectiveness of our
approach and the dataset's exceptional generalizability.
- Abstract(参考訳): バレット駐車環境下での魚眼視知覚は、自動運転において基本的かつ不可欠である。
駐車場の環境条件は、不完全な光や不透明さなどの一般的な公共データセットと異なり、知覚性能に大きく影響する。
公共データセットに基づく既存のネットワークの多くは、魚眼の歪みによって影響を受けるこれらのヴァレットパーキングシーンの副最適結果を一般化することができる。
本稿では,魚眼パーキングデータセット(fpd)と呼ばれる新しい大規模魚眼データセットを提案する。
特に,コンパイルされたFPDは,周囲視の異なるタスクに優れた特徴を示す。
さらに,魚眼の歪み操作とマルチタスク軽量設計を強化し,周囲の魚眼BEV知覚を改善するリアルタイム・歪みに敏感なマルチタスク・フレームワークである魚眼知覚ネットワーク(FPNet)を提案する。
広範な実験は、このアプローチの有効性とデータセットの例外的な一般化性を検証する。
関連論文リスト
- Surround-View Fisheye Optics in Computer Vision and Simulation: Survey
and Challenges [1.2673797373220104]
自動車産業は、道路の安全性を高め、自動運転機能を提供するために最先端のコンピュータビジョンを適用している。
サラウンドビューカメラにおける重要な課題の1つは、魚眼カメラの強い光収差である。
車両自動化における安全クリティカルなシナリオをテストするには、包括的なデータセットが必要である。
論文 参考訳(メタデータ) (2024-02-19T10:56:28Z) - PPD: A New Valet Parking Pedestrian Fisheye Dataset for Autonomous
Driving [18.71208933251644]
駐車歩行者のデータセットは、魚眼カメラで捕獲されたいくつかの特徴的なタイプの歩行者で構成されている。
歩行者検出ベースラインをPDDデータセット上に提示し、ベースラインを改善するために2つのデータ拡張手法を導入する。
論文 参考訳(メタデータ) (2023-09-20T01:55:19Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - SimFIR: A Simple Framework for Fisheye Image Rectification with
Self-supervised Representation Learning [105.01294305972037]
自己教師型表現学習に基づく魚眼画像修正のためのフレームワークであるSimFIRを紹介する。
まず魚眼画像を複数のパッチに分割し,その表現を視覚変換器で抽出する。
下流修正作業における転送性能が著しく向上し、学習された表現の有効性が検証される。
論文 参考訳(メタデータ) (2023-08-17T15:20:17Z) - FishDreamer: Towards Fisheye Semantic Completion via Unified Image
Outpainting and Segmentation [33.71849096992972]
本稿では,魚眼画像の密接なテクスチャ,構造,意味を,センサ・フィールド・オブ・ビュー(FoV)を超えても推測する,魚眼セマンティック・コンプリート(FSC)の新たな課題を提起する。
そこで本研究では,Pola-Aware Cross Attention Module (PCA) によって拡張されたViTsを利用して,密集したコンテキストを活用し,意味的に一貫性のあるコンテンツ生成をガイドする新しいFishDreamerを提案する。
論文 参考訳(メタデータ) (2023-03-24T07:34:25Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras [3.485767750936058]
多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
論文 参考訳(メタデータ) (2021-07-19T13:24:21Z) - Fisheye Lens Camera based Autonomous Valet Parking System [3.461121828373003]
本稿では,最も普及しているセンサであるカメラのみを利用した,効率的な自動駐車システムを提案する。
ピンホールカメラに比べて視野が広い魚眼カメラを使用しています。
論文 参考訳(メタデータ) (2021-04-27T11:36:03Z) - Panoramic Panoptic Segmentation: Towards Complete Surrounding
Understanding via Unsupervised Contrastive Learning [97.37544023666833]
我々は,パノラマパオプティックセグメンテーションを最も総合的なシーン理解として導入する。
完全な周囲の理解は、エージェントに最大限の情報を提供する。
標準ピンホール画像のモデルトレーニングを可能にし、学習した機能を異なるドメインに転送するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-01T09:37:27Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。