論文の概要: SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2206.08367v1
- Date: Thu, 16 Jun 2022 17:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:59:21.276493
- Title: SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation
- Title(参考訳): ShiFT: 連続マルチタスクドメイン適応のための合成駆動データセット
- Authors: Tao Sun, Mattia Segu, Janis Postels, Yuxuan Wang, Luc Van Gool, Bernt
Schiele, Federico Tombari, Fisher Yu
- Abstract要約: ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
- 参考スコア(独自算出の注目度): 152.60469768559878
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adapting to a continuously evolving environment is a safety-critical
challenge inevitably faced by all autonomous driving systems. Existing image
and video driving datasets, however, fall short of capturing the mutable nature
of the real world. In this paper, we introduce the largest multi-task synthetic
dataset for autonomous driving, SHIFT. It presents discrete and continuous
shifts in cloudiness, rain and fog intensity, time of day, and vehicle and
pedestrian density. Featuring a comprehensive sensor suite and annotations for
several mainstream perception tasks, SHIFT allows investigating the degradation
of a perception system performance at increasing levels of domain shift,
fostering the development of continuous adaptation strategies to mitigate this
problem and assess model robustness and generality. Our dataset and benchmark
toolkit are publicly available at www.vis.xyz/shift.
- Abstract(参考訳): 継続的に進化する環境への適応は、すべての自動運転システムが必然的に直面する安全-クリティカルな課題である。
しかし、既存の画像とビデオの駆動データセットは、現実世界の変動する性質を捉えていない。
本稿では,自動運転のための多タスク合成データセットShiFTを紹介する。
それは、曇り、雨と霧の強度、昼の時間、車と歩行者の密度の離散的で連続的な変化を示す。
総合的なセンサスイートとアノテーションを主要な知覚タスクとして備えたShiftは、ドメインシフトの増大による知覚システム性能の劣化を調査し、この問題を軽減するための継続的適応戦略の開発を促進し、モデルの堅牢性と汎用性を評価する。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shiftで公開されています。
関連論文リスト
- Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、複数のセンサの融合を誘導するコンディショントークンを生成する。
MUSESデータセットでは,マルチモーダルパノプティクスセグメンテーションの59.7 PQ,セマンティックセグメンテーションの78.2 mIoU,公開ベンチマークの1位にランクインした。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - PLT-D3: A High-fidelity Dynamic Driving Simulation Dataset for Stereo Depth and Scene Flow [0.0]
本稿では,エンジン5を用いて生成した高忠実度ステレオ深度およびシーンフローグラウンド真理データであるダイナミックウェザードライビングデータセットを紹介する。
特に、このデータセットには、様々な動的気象シナリオを再現する、同期された高解像度ステレオ画像シーケンスが含まれている。
Unreal-D3を用いたいくつかの重要な自動運転タスクのためのベンチマークが確立され、最先端モデルの性能を計測し、向上している。
論文 参考訳(メタデータ) (2024-06-11T19:21:46Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - End-to-end Autonomous Driving: Challenges and Frontiers [45.391430626264764]
エンドツーエンドの自動運転におけるモチベーション、ロードマップ、方法論、課題、今後のトレンドについて、270以上の論文を包括的に分析する。
マルチモダリティ、解釈可能性、因果的混乱、堅牢性、世界モデルなど、いくつかの重要な課題を掘り下げます。
基礎モデルと視覚前訓練の現在の進歩と、これらの技術をエンドツーエンドの駆動フレームワークに組み込む方法について論じる。
論文 参考訳(メタデータ) (2023-06-29T14:17:24Z) - Enhance Sample Efficiency and Robustness of End-to-end Urban Autonomous Driving via Semantic Masked World Model [38.722096508198106]
本稿では,SEMantic Masked Recurrent World Model (SEM2)を提案する。
提案手法は, サンプル効率と入力順列に対するロバスト性の観点から, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-10-08T13:00:08Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - StyleLess layer: Improving robustness for real-world driving [5.9185565986343835]
ディープニューラルネットワーク(DNN)は、自動運転車にとって重要なコンポーネントです。
大量のラベル付きデータから情報を取り出し、優れた性能を発揮します。
しかし、現実世界の完全な複雑さをトレーニングデータにカプセル化することはできない。
stylelessと呼ばれる新しいタイプのレイヤによってこの問題に対処します。
論文 参考訳(メタデータ) (2021-03-25T15:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。