論文の概要: WoodScape Motion Segmentation for Autonomous Driving -- CVPR 2023 OmniCV
Workshop Challenge
- arxiv url: http://arxiv.org/abs/2401.00910v1
- Date: Sun, 31 Dec 2023 23:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 15:07:52.872284
- Title: WoodScape Motion Segmentation for Autonomous Driving -- CVPR 2023 OmniCV
Workshop Challenge
- Title(参考訳): WoodScape Motion Segmentation for autonomous Driving -- CVPR 2023 OmniCV Workshop Challenge
- Authors: Saravanabalagi Ramachandran and Nathaniel Cibik and Ganesh Sistu and
John McDonald
- Abstract要約: WoodScape fisheye Motion segmentation Challenge for autonomous drivingはCVPR 2023 Workshop on Omnidirectional Computer Visionの一部として開催された。
112のグローバルチームが参加し、合計で234の応募があった。
- 参考スコア(独自算出の注目度): 2.128156484618108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motion segmentation is a complex yet indispensable task in autonomous
driving. The challenges introduced by the ego-motion of the cameras, radial
distortion in fisheye lenses, and the need for temporal consistency make the
task more complicated, rendering traditional and standard Convolutional Neural
Network (CNN) approaches less effective. The consequent laborious data
labeling, representation of diverse and uncommon scenarios, and extensive data
capture requirements underscore the imperative of synthetic data for improving
machine learning model performance. To this end, we employ the PD-WoodScape
synthetic dataset developed by Parallel Domain, alongside the WoodScape fisheye
dataset. Thus, we present the WoodScape fisheye motion segmentation challenge
for autonomous driving, held as part of the CVPR 2023 Workshop on
Omnidirectional Computer Vision (OmniCV). As one of the first competitions
focused on fisheye motion segmentation, we aim to explore and evaluate the
potential and impact of utilizing synthetic data in this domain. In this paper,
we provide a detailed analysis on the competition which attracted the
participation of 112 global teams and a total of 234 submissions. This study
delineates the complexities inherent in the task of motion segmentation,
emphasizes the significance of fisheye datasets, articulate the necessity for
synthetic datasets and the resultant domain gap they engender, outlining the
foundational blueprint for devising successful solutions. Subsequently, we
delve into the details of the baseline experiments and winning methods
evaluating their qualitative and quantitative results, providing with useful
insights.
- Abstract(参考訳): 運動セグメンテーションは、自律運転において複雑だが不可欠である。
カメラのエゴモーション、魚眼レンズの放射歪み、時間的一貫性の必要性によって、タスクはより複雑になり、従来の畳み込みニューラルネットワーク(CNN)のアプローチはより効果的になる。
面倒なデータラベリング、多様で珍しいシナリオの表現、広範囲なデータキャプチャ要件は、機械学習モデルのパフォーマンスを改善するために合成データが必要となる。
この目的のために,parallel domainが開発したpd-woodscape合成データセットとwoodscape fisheyeデータセットを併用した。
そこで,本研究では, CVPR 2023 Workshop on Omnidirectional Computer Vision (OmniCV) の一環として, 自律走行のためのWoodScape fisheye運動セグメンテーションチャレンジを行う。
魚眼運動分節に着目した最初のコンペティションの1つとして,本領域における合成データ活用の可能性と影響を探求し,評価することを目的とする。
本稿では,グローバルチーム112チームが参加し,合計234人が応募したコンペについて,詳細な分析を行った。
本研究は,移動セグメンテーションの課題に内在する複雑さを詳述し,魚眼データセットの重要性を強調し,合成データセットの必要性と,それらが生み出すドメインギャップを明確にし,ソリューション開発の基礎的青写真の概要を述べる。
その後,基礎実験の詳細と,その質的,定量的な結果を評価する方法について検討し,有用な知見を得た。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Extended Agriculture-Vision: An Extension of a Large Aerial Image
Dataset for Agricultural Pattern Analysis [11.133807938044804]
農業ビジョンデータセットの改良版(Chiu et al., 2020b)をリリースする。
このデータセットは,3600大,高解像度(10cm/ピクセル),フルフィールド,赤緑色,近赤外画像の事前トレーニングにより拡張する。
下流分類とセマンティックセグメンテーションの両タスクにおいて、異なるコントラスト学習アプローチをベンチマークすることで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2023-03-04T17:35:24Z) - Domain Adaptation of Synthetic Driving Datasets for Real-World
Autonomous Driving [0.11470070927586014]
特定のコンピュータビジョンタスクのための合成データで訓練されたネットワークは、実世界のデータでテストすると大幅に劣化する。
本稿では,このような手法を改良するための新しい手法を提案し,評価する。
本稿では,このペア選択にセマンティック・インスペクションを効果的に組み込む手法を提案し,モデルの性能向上に寄与する。
論文 参考訳(メタデータ) (2023-02-08T15:51:54Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Woodscape Fisheye Semantic Segmentation for Autonomous Driving -- CVPR
2021 OmniCV Workshop Challenge [2.3469719108972504]
WoodScape fisheye semantic segmentation Challenge for autonomous drivingはCVPR 2021 Workshop on Omnidirectional Computer Visionの一部として開催された。
71のグローバルチームが参加し、合計で395の応募があった。
トップチームは、ResNet-50バックボーンを使用したベースラインのPSPNetよりも、平均IoUと精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-07-17T14:32:58Z) - Deflating Dataset Bias Using Synthetic Data Augmentation [8.509201763744246]
自律走行車(AV)の視覚タスクの最先端の手法は、教師あり学習に依存している。
本研究の目的は,視覚タスクにおける実際のデータセットのギャップを埋めるために,ターゲットとなる合成データ拡張の利用を検討することである。
AVに実用的な3つの異なるコンピュータビジョンタスクに関する実証研究は、トレーニングミックスに合成データを持つことは、クロスデータセットの一般化性能を著しく向上させることを一貫して示している。
論文 参考訳(メタデータ) (2020-04-28T21:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。