論文の概要: SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2206.08367v1
- Date: Thu, 16 Jun 2022 17:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:59:21.276493
- Title: SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation
- Title(参考訳): ShiFT: 連続マルチタスクドメイン適応のための合成駆動データセット
- Authors: Tao Sun, Mattia Segu, Janis Postels, Yuxuan Wang, Luc Van Gool, Bernt
Schiele, Federico Tombari, Fisher Yu
- Abstract要約: ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
- 参考スコア(独自算出の注目度): 152.60469768559878
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adapting to a continuously evolving environment is a safety-critical
challenge inevitably faced by all autonomous driving systems. Existing image
and video driving datasets, however, fall short of capturing the mutable nature
of the real world. In this paper, we introduce the largest multi-task synthetic
dataset for autonomous driving, SHIFT. It presents discrete and continuous
shifts in cloudiness, rain and fog intensity, time of day, and vehicle and
pedestrian density. Featuring a comprehensive sensor suite and annotations for
several mainstream perception tasks, SHIFT allows investigating the degradation
of a perception system performance at increasing levels of domain shift,
fostering the development of continuous adaptation strategies to mitigate this
problem and assess model robustness and generality. Our dataset and benchmark
toolkit are publicly available at www.vis.xyz/shift.
- Abstract(参考訳): 継続的に進化する環境への適応は、すべての自動運転システムが必然的に直面する安全-クリティカルな課題である。
しかし、既存の画像とビデオの駆動データセットは、現実世界の変動する性質を捉えていない。
本稿では,自動運転のための多タスク合成データセットShiFTを紹介する。
それは、曇り、雨と霧の強度、昼の時間、車と歩行者の密度の離散的で連続的な変化を示す。
総合的なセンサスイートとアノテーションを主要な知覚タスクとして備えたShiftは、ドメインシフトの増大による知覚システム性能の劣化を調査し、この問題を軽減するための継続的適応戦略の開発を促進し、モデルの堅牢性と汎用性を評価する。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shiftで公開されています。
関連論文リスト
- MUSES: The Multi-Sensor Semantic Perception Dataset for Driving under
Uncertainty [48.10114997011645]
MUSES(MUlti-Sensor Semantic 知覚データセット)を導入する。
データセットはフレームカメラ、ライダー、レーダー、イベントカメラ、IMU/GNSSセンサーを統合する。
MUSESは、様々な視覚条件下でモデルを評価するのに、トレーニングと挑戦の両方に効果的であることを証明している。
論文 参考訳(メタデータ) (2024-01-23T13:43:17Z) - RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - AutoFed: Heterogeneity-Aware Federated Multimodal Learning for Robust
Autonomous Driving [15.486799633600423]
AutoFedは、自動運転車のマルチモーダルセンサーデータをフル活用するためのフレームワークである。
本研究では, 未知の物体を背景として誤って扱うことを避けるために, 擬似ラベルを用いた新しいモデルを提案する。
また、欠落したデータモダリティを補うために、オートエンコーダに基づくデータ計算手法を提案する。
論文 参考訳(メタデータ) (2023-02-17T01:31:53Z) - Enhance Sample Efficiency and Robustness of End-to-end Urban Autonomous
Driving via Semantic Masked World Model [20.26487890713432]
本稿では,重要なタスク関連特徴を抽出し,フィルタされた特徴を通して意味マスクを再構成する潜時フィルタを導入したセマンティックマスク再帰世界モデル(SEM2)を提案する。
提案手法は, サンプル効率と入力順列に対するロバスト性の観点から, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-10-08T13:00:08Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Autonomous Vehicles that Alert Humans to Take-Over Controls: Modeling
with Real-World Data [11.007092387379076]
本研究は,運転状態の文脈的意味的表現の開発に焦点を当てた。
自律型エージェントの乗っ取り制御を参加者に指示する大規模な実世界制御データスタディを実施します。
これらのテイクオーバーイベントは、複数のドライバー向けカメラを使用してキャプチャされ、ラベル付けされると、コントロール遷移のデータセットと対応するテイクオーバー時間(tot)が生成される。
このデータセットを拡張後、異なるドライバ向けカメラビューで動作するコンピュータビジョンアルゴリズムが生成する低レベルと中レベルの機能でシーケンシャルに動作するtotモデルを開発・訓練する。
論文 参考訳(メタデータ) (2021-04-23T09:16:53Z) - StyleLess layer: Improving robustness for real-world driving [5.9185565986343835]
ディープニューラルネットワーク(DNN)は、自動運転車にとって重要なコンポーネントです。
大量のラベル付きデータから情報を取り出し、優れた性能を発揮します。
しかし、現実世界の完全な複雑さをトレーニングデータにカプセル化することはできない。
stylelessと呼ばれる新しいタイプのレイヤによってこの問題に対処します。
論文 参考訳(メタデータ) (2021-03-25T15:15:39Z) - Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders [63.46738617561255]
訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-19T01:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。