論文の概要: Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline
- arxiv url: http://arxiv.org/abs/2012.02124v1
- Date: Thu, 3 Dec 2020 18:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:44:00.563064
- Title: Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline
- Title(参考訳): 自動走行のための魚眼カメラの汎用物体検出:データセット,表現,ベースライン
- Authors: Hazem Rashed, Eslam Mohamed, Ganesh Sistu, Varun Ravi Kumar, Ciaran
Eising, Ahmad El-Sallab and Senthil Yogamani
- Abstract要約: 魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどのより良い表現について検討する。
魚眼歪みモデルに最適な特性を持つ曲面境界箱モデルを設計する。
これは、自律走行シナリオのための魚眼カメラにおける物体検出に関する最初の詳細な研究である。
- 参考スコア(独自算出の注目度): 5.1450366450434295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is a comprehensively studied problem in autonomous driving.
However, it has been relatively less explored in the case of fisheye cameras.
The standard bounding box fails in fisheye cameras due to the strong radial
distortion, particularly in the image's periphery. We explore better
representations like oriented bounding box, ellipse, and generic polygon for
object detection in fisheye images in this work. We use the IoU metric to
compare these representations using accurate instance segmentation ground
truth. We design a novel curved bounding box model that has optimal properties
for fisheye distortion models. We also design a curvature adaptive perimeter
sampling method for obtaining polygon vertices, improving relative mAP score by
4.9% compared to uniform sampling. Overall, the proposed polygon model improves
mIoU relative accuracy by 40.3%. It is the first detailed study on object
detection on fisheye cameras for autonomous driving scenarios to the best of
our knowledge. The dataset comprising of 10,000 images along with all the
object representations ground truth will be made public to encourage further
research. We summarize our work in a short video with qualitative results at
https://youtu.be/iLkOzvJpL-A.
- Abstract(参考訳): 物体検出は自動運転において包括的に研究されている問題である。
しかし、魚眼カメラについては、比較的研究が進んでいない。
標準のバウンディングボックスは魚眼カメラでは、特に画像の周囲において強い放射歪のために故障する。
本研究では,魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどの表現について検討する。
我々は、IoU計量を用いて、これらの表現を正確なインスタンス分割基底真理を用いて比較する。
魚眼歪モデルに最適な特性を有する新しい曲面境界ボックスモデルを設計する。
また,多角形頂点を得るための曲率適応ペリメータサンプリング法を設計し,一様サンプリングに比べて相対的なmAPスコアが4.9%向上した。
全体として、提案されたポリゴンモデルはmIoU相対精度を40.3%向上させる。
これは、我々の知る限り、自律走行シナリオのための魚眼カメラによる物体検出に関する初めての詳細な研究である。
1万枚の画像とすべてのオブジェクト表現の基盤となる真実からなるデータセットは、さらなる研究を促進するために公開される予定だ。
われわれの研究成果は、https://youtu.be/iLkOzvJpL-Aで質的な結果を得た短いビデオで要約する。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera [10.573423265001706]
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
論文 参考訳(メタデータ) (2023-09-15T12:50:09Z) - Towards Model Generalization for Monocular 3D Object Detection [57.25828870799331]
我々は,Mono3Dオブジェクト検出に有効な統合カメラ一般化パラダイム(CGP)を提案する。
また,インスタンスレベルの拡張によりギャップを埋める2D-3D幾何一貫性オブジェクトスケーリング戦略(GCOS)を提案する。
DGMono3Dと呼ばれる手法は、評価された全てのデータセットに対して顕著な性能を達成し、SoTAの教師なしドメイン適応スキームを上回ります。
論文 参考訳(メタデータ) (2022-05-23T23:05:07Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - MonoCInIS: Camera Independent Monocular 3D Object Detection using
Instance Segmentation [55.96577490779591]
大規模で異質なトレーニングデータを活用するためには、"カメラ独立"の度合いが必要である。
大規模で異質なトレーニングデータの恩恵を受けるためには、より多くのデータがパフォーマンスを自動で保証するのではなく、"カメラ独立"の度合いを持つ必要がある。
論文 参考訳(メタデータ) (2021-10-01T14:56:37Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - OmniDet: Surround View Cameras based Multi-task Visual Perception
Network for Autonomous Driving [10.3540046389057]
本研究は,未修正魚眼画像のマルチタスク視覚知覚ネットワークを提案する。
自動運転システムに必要な6つの主要なタスクで構成されている。
共同で訓練されたモデルは、それぞれのタスクバージョンよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-15T10:46:24Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - UnRectDepthNet: Self-Supervised Monocular Depth Estimation using a
Generic Framework for Handling Common Camera Distortion Models [8.484676769284578]
本研究では,未修正単眼ビデオから深度,ユークリッド距離,および視覚計測を推定するための,汎用的な規模対応型自己教師パイプラインを提案する。
提案アルゴリズムは,KITTI修正データセットでさらに評価され,最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-07-13T20:35:05Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。