論文の概要: SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2104.04420v1
- Date: Fri, 9 Apr 2021 15:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 13:56:25.278695
- Title: SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras
- Title(参考訳): svdistnet: サラウンドビュー魚眼カメラによる近距離自己監視推定
- Authors: Varun Ravi Kumar, Marvin Klingner, Senthil Yogamani, Markus Bach,
Stefan Milz, Tim Fingscheidt and Patrick M\"ader
- Abstract要約: シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
- 参考スコア(独自算出の注目度): 30.480562747903186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A 360{\deg} perception of scene geometry is essential for automated driving,
notably for parking and urban driving scenarios. Typically, it is achieved
using surround-view fisheye cameras, focusing on the near-field area around the
vehicle. The majority of current depth estimation approaches focus on employing
just a single camera, which cannot be straightforwardly generalized to multiple
cameras. The depth estimation model must be tested on a variety of cameras
equipped to millions of cars with varying camera geometries. Even within a
single car, intrinsics vary due to manufacturing tolerances. Deep learning
models are sensitive to these changes, and it is practically infeasible to
train and test on each camera variant. As a result, we present novel
camera-geometry adaptive multi-scale convolutions which utilize the camera
parameters as a conditional input, enabling the model to generalize to
previously unseen fisheye cameras. Additionally, we improve the distance
estimation by pairwise and patchwise vector-based self-attention encoder
networks. We evaluate our approach on the Fisheye WoodScape surround-view
dataset, significantly improving over previous approaches. We also show a
generalization of our approach across different camera viewing angles and
perform extensive experiments to support our contributions. To enable
comparison with other approaches, we evaluate the front camera data on the
KITTI dataset (pinhole camera images) and achieve state-of-the-art performance
among self-supervised monocular methods. An overview video with qualitative
results is provided at https://youtu.be/bmX0UcU9wtA. Baseline code and dataset
will be made public.
- Abstract(参考訳): 360{\deg}のシーン形状の知覚は、特にパーキングや都市運転のシナリオにおいて、自動走行に不可欠である。
通常はサラウンドビューの魚眼カメラで実現され、車両周辺の近距離領域に焦点を合わせている。
現在の深度推定手法の大半は、複数のカメラに簡単に一般化できない単一のカメラを採用することに焦点を当てている。
深度推定モデルは、カメラジオメトリが異なる数百万台の車に搭載された様々なカメラでテストする必要がある。
1台の車の中でも、内在性は製造耐久性によって異なる。
ディープラーニングモデルはこれらの変化に敏感であり、各カメラのバリエーションをトレーニングし、テストすることは事実上不可能である。
その結果,カメラパラメータを条件入力として用いた新しいカメラ幾何学適応型マルチスケールコンボリューションを提案する。
さらに、ペアワイズおよびパッチワイズベクトルベースの自己アテンションエンコーダネットワークによる距離推定を改善する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
また、異なるカメラ視角にまたがるアプローチの一般化を示し、コントリビューションを支援するために広範な実験を行う。
他の手法と比較して、KITTIデータセット(ピンホールカメラ画像)のフロントカメラデータを評価し、自己監督単分子法における最先端性能を実現する。
質的な結果を含む概要ビデオはhttps://youtu.be/bmX0UcU9wtAで公開されている。
ベースラインコードとデータセットが公開される。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - OmniDet: Surround View Cameras based Multi-task Visual Perception
Network for Autonomous Driving [10.3540046389057]
本研究は,未修正魚眼画像のマルチタスク視覚知覚ネットワークを提案する。
自動運転システムに必要な6つの主要なタスクで構成されている。
共同で訓練されたモデルは、それぞれのタスクバージョンよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-15T10:46:24Z) - Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline [5.1450366450434295]
魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどのより良い表現について検討する。
魚眼歪みモデルに最適な特性を持つ曲面境界箱モデルを設計する。
これは、自律走行シナリオのための魚眼カメラにおける物体検出に関する最初の詳細な研究である。
論文 参考訳(メタデータ) (2020-12-03T18:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。