論文の概要: SynWoodScape: Synthetic Surround-view Fisheye Camera Dataset for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2203.05056v1
- Date: Wed, 9 Mar 2022 21:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:36:47.075814
- Title: SynWoodScape: Synthetic Surround-view Fisheye Camera Dataset for
Autonomous Driving
- Title(参考訳): SynWoodScape: 自動走行のための総合魚眼カメラデータセット
- Authors: Ahmed Rida Sekkat, Yohan Dupuis, Varun Ravi Kumar, Hazem Rashed,
Senthil Yogamani, Pascal Vasseur, Paul Honeine
- Abstract要約: 190degの視野を持つ4台の魚眼カメラが、車両の周囲の360degを覆っている。
高いラジアル歪みのため、標準アルゴリズムは容易に拡張できない。
10以上のタスクに対するアノテーションを備えた合成データセットから80kイメージをリリースします。
- 参考スコア(独自算出の注目度): 11.218570399525005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surround-view cameras are a primary sensor for automated driving, used for
near field perception. It is one of the most commonly used sensors in
commercial vehicles. Four fisheye cameras with a 190{\deg} field of view cover
the 360{\deg} around the vehicle. Due to its high radial distortion, the
standard algorithms do not extend easily. Previously, we released the first
public fisheye surround-view dataset named WoodScape. In this work, we release
a synthetic version of the surround-view dataset, covering many of its
weaknesses and extending it. Firstly, it is not possible to obtain ground truth
for pixel-wise optical flow and depth. Secondly, WoodScape did not have all
four cameras simultaneously in order to sample diverse frames. However, this
means that multi-camera algorithms cannot be designed, which is enabled in the
new dataset. We implemented surround-view fisheye geometric projections in
CARLA Simulator matching WoodScape's configuration and created SynWoodScape. We
release 80k images from the synthetic dataset with annotations for 10+ tasks.
We also release the baseline code and supporting scripts.
- Abstract(参考訳): 周囲カメラは自動走行のための主要なセンサーであり、近接場知覚に使用される。
商用車両で最もよく使われるセンサーの1つである。
190{\deg}の視野を持つ4台の魚眼カメラが、車両の周囲の360{\deg}をカバーしている。
放射歪が大きいため、標準アルゴリズムは簡単には拡張できない。
以前は、WoodScapeという最初の公開魚眼サラウンドビューデータセットをリリースしました。
本研究では,サラウンドビューデータセットの合成版をリリースし,その弱点の多くをカバーし,拡張する。
まず、画素単位の光学的流れと深さの基底真理を得ることができない。
第2に、WoodScapeは様々なフレームをサンプリングするために4つのカメラを同時に備えていなかった。
しかし、これは、新しいデータセットで有効になるマルチカメラアルゴリズムを設計できないことを意味する。
我々は,CARLAシミュレータにおいて,WoodScapeの構成に適合するサラウンドビュー魚眼形状投影を実装し,SynWoodScapeを作成した。
10以上のタスクに対するアノテーションを備えた合成データセットから80kイメージをリリースします。
ベースラインのコードとサポートスクリプトもリリースしています。
関連論文リスト
- 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - FisheyePP4AV: A privacy-preserving method for autonomous vehicles on
fisheye camera images [1.534667887016089]
世界中の多くの地域では、公道で収集された大量のデータを自動運転に利用している。
実際の道路走行シナリオにおいて、歩行者の顔や付近の自動車ナンバープレートを検出し、匿名化するためには、効果的な解決策が緊急に必要である。
この研究では、私たちはプライバシー保護に特に注意を払っていますが、無人走行車によって撮影された魚眼カメラ写真のいくつかの法律に固執しています。
論文 参考訳(メタデータ) (2023-09-07T15:51:31Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - OmniDet: Surround View Cameras based Multi-task Visual Perception
Network for Autonomous Driving [10.3540046389057]
本研究は,未修正魚眼画像のマルチタスク視覚知覚ネットワークを提案する。
自動運転システムに必要な6つの主要なタスクで構成されている。
共同で訓練されたモデルは、それぞれのタスクバージョンよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-15T10:46:24Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z) - Beyond the Camera: Neural Networks in World Coordinates [82.31045377469584]
眼球運動は、動物にシーンの解像度を高め、邪魔な情報を抑制する。
そこで我々は,各層における各機能が空間変換を持ち,機能マップは必要に応じてのみ変換される,シンプルなアイデア WorldFeatures を提案する。
これらのWorldFeaturesで構築されたネットワークは、事前に記録されたビデオのバッチ設定であっても、ササード、固定、スムーズな追跡などの眼球運動をモデル化することができる。
論文 参考訳(メタデータ) (2020-03-12T04:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。