論文の概要: Woodscape Fisheye Object Detection for Autonomous Driving -- CVPR 2022
OmniCV Workshop Challenge
- arxiv url: http://arxiv.org/abs/2206.12912v1
- Date: Sun, 26 Jun 2022 16:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:12:19.813580
- Title: Woodscape Fisheye Object Detection for Autonomous Driving -- CVPR 2022
OmniCV Workshop Challenge
- Title(参考訳): 木造魚眼物体の自律走行検出 --CVPR 2022 オムニCVワークショップチャレンジ
- Authors: Saravanabalagi Ramachandran, Ganesh Sistu, Varun Ravi Kumar, John
McDonald and Senthil Yogamani
- Abstract要約: WoodScape fisheye object detection challenge for autonomous drivingはCVPR 2022 Workshop on Omnidirectional Computer Visionの一部として開催された。
我々は、120のグローバルチームと合計1492の応募を惹きつけた競技について、詳細な分析を行った。
- 参考スコア(独自算出の注目度): 2.9129796077742824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is a comprehensively studied problem in autonomous driving.
However, it has been relatively less explored in the case of fisheye cameras.
The strong radial distortion breaks the translation invariance inductive bias
of Convolutional Neural Networks. Thus, we present the WoodScape fisheye object
detection challenge for autonomous driving which was held as part of the CVPR
2022 Workshop on Omnidirectional Computer Vision (OmniCV). This is one of the
first competitions focused on fisheye camera object detection. We encouraged
the participants to design models which work natively on fisheye images without
rectification. We used CodaLab to host the competition based on the publicly
available WoodScape fisheye dataset. In this paper, we provide a detailed
analysis on the competition which attracted the participation of 120 global
teams and a total of 1492 submissions. We briefly discuss the details of the
winning methods and analyze their qualitative and quantitative results.
- Abstract(参考訳): 物体検出は自動運転において包括的に研究されている問題である。
しかし、魚眼カメラについては、比較的研究が進んでいない。
強いラジアル歪みは、畳み込みニューラルネットワークの変換不変性誘導バイアスを破る。
そこで本研究では, CVPR 2022 Workshop on Omnidirectional Computer Vision (OmniCV) の一環として, 自律走行のためのWoodScape fisheye物体検出チャレンジを開催する。
これは、魚眼カメラオブジェクト検出に焦点を当てた最初のコンペの1つだ。
魚眼画像にネイティブに機能するモデルを修正せずに設計するよう,参加者に勧めた。
私たちはCodaLabを使って、一般公開されているWoodScape fisheyeデータセットに基づいたコンペを開催しました。
本稿では、120のグローバルチームの参加と合計1492の応募を惹き付けたコンペティションについて、詳細な分析を行う。
優勝方法の詳細を簡潔に議論し,その質的,定量的な結果を分析した。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - Event-Based Eye Tracking. AIS 2024 Challenge Survey [73.41168445057629]
AIS 2024 Event-Based Eye Tracking (EET) Challengeをレビューする。
この課題の課題は、イベントカメラで記録された眼球運動の処理と瞳孔中心の予測である。
この課題は、タスクの精度と効率のトレードオフを達成するために、イベントカメラによる効率的なアイトラッキングを強調している。
論文 参考訳(メタデータ) (2024-04-17T21:53:01Z) - WoodScape Motion Segmentation for Autonomous Driving -- CVPR 2023 OmniCV
Workshop Challenge [2.128156484618108]
WoodScape fisheye Motion segmentation Challenge for autonomous drivingはCVPR 2023 Workshop on Omnidirectional Computer Visionの一部として開催された。
112のグローバルチームが参加し、合計で234の応募があった。
論文 参考訳(メタデータ) (2023-12-31T23:53:50Z) - Egocentric Whole-Body Motion Capture with FisheyeViT and Diffusion-Based
Motion Refinement [65.08165593201437]
本研究では,人体と手の動きを同時に推定する単一魚眼カメラを用いて,自我中心型全体モーションキャプチャーを探索する。
この課題は、高品質なデータセットの欠如、魚眼カメラの歪み、人間の身体の自己閉塞など、重大な課題を提起する。
そこで本研究では,魚眼画像の特徴を3次元人体ポーズ予測のための3次元熱マップ表現に変換した魚眼画像の特徴を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T07:13:47Z) - MIPI 2023 Challenge on Nighttime Flare Removal: Methods and Results [88.0792325532059]
我々は、MIPI 2023でナイトタイムフレア除去トラックを要約し、レビューする。
120人が登録され、11チームが最終テストフェーズで結果を提出した。
この課題で開発されたソリューションは、夜間フレア除去における最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-05-23T07:34:49Z) - MIPI 2022 Challenge on Under-Display Camera Image Restoration: Methods
and Results [92.61915017739895]
我々はMIPI 2022のUDC(Under-Display Camera)画像復元トラックを要約・レビューする。
合計167人の参加者が登録され、19チームが最終テストフェーズで結果を提出した。
この課題で開発されたソリューションは、Under-Display Camera Image Restorationにおける最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2022-09-15T05:13:25Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - Woodscape Fisheye Semantic Segmentation for Autonomous Driving -- CVPR
2021 OmniCV Workshop Challenge [2.3469719108972504]
WoodScape fisheye semantic segmentation Challenge for autonomous drivingはCVPR 2021 Workshop on Omnidirectional Computer Visionの一部として開催された。
71のグローバルチームが参加し、合計で395の応募があった。
トップチームは、ResNet-50バックボーンを使用したベースラインのPSPNetよりも、平均IoUと精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-07-17T14:32:58Z) - NTIRE 2021 Multi-modal Aerial View Object Classification Challenge [88.89190054948325]
CVPR の NTIRE 2021 ワークショップと共同で,MAVOC (Multi-modal Aerial View Object Classification) の最初の挑戦を紹介した。
この課題は、EOとSAR画像を用いた2つの異なるトラックで構成されている。
本コンペティションで提案した最上位の手法について検討し,その成果を目視テストセットで評価する。
論文 参考訳(メタデータ) (2021-07-02T16:55:08Z) - FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images [2.187613144178315]
キーポイントの検出と記述はコンピュータビジョンシステムで一般的に使用されるビルディングブロックである。
SuperPointは、ホモグラフィー推定における最先端の結果を達成した自己監視型キーポイント検出器およびディスクリプタです。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-27T11:26:34Z) - NTIRE 2020 Challenge on Real-World Image Super-Resolution: Methods and
Results [148.54397669654958]
本稿は,NTIRE 2020における現実世界の超解像に関する課題を概観する。
この課題は、真の高解像度画像と低解像度画像のペアが利用できない現実世界の設定に対処する。
合計22チームが最終テストフェーズに出場し、この問題に対する新しい革新的な解決策を実証した。
論文 参考訳(メタデータ) (2020-05-05T08:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。