論文の概要: Predicting Take-over Time for Autonomous Driving with Real-World Data:
Robust Data Augmentation, Models, and Evaluation
- arxiv url: http://arxiv.org/abs/2107.12932v1
- Date: Tue, 27 Jul 2021 16:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:37:32.607416
- Title: Predicting Take-over Time for Autonomous Driving with Real-World Data:
Robust Data Augmentation, Models, and Evaluation
- Title(参考訳): 実世界データによる自動運転のテイクオーバー時間予測:ロバストデータ強化,モデル,評価
- Authors: Akshay Rangesh, Nachiket Deo, Ross Greer, Pujitha Gunaratne, Mohan M.
Trivedi
- Abstract要約: 我々は、運転者向けカメラビューで動作するコンピュータビジョンアルゴリズムによって作成される中高レベルの機能で動作するテイクオーバー時間(TOT)モデルを開発し、訓練する。
拡張データでサポートされたTOTモデルを用いて,遅延なく連続的なテイクオーバー時間を推定できることを示す。
- 参考スコア(独自算出の注目度): 11.007092387379076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding occupant-vehicle interactions by modeling control transitions
is important to ensure safe approaches to passenger vehicle automation. Models
which contain contextual, semantically meaningful representations of driver
states can be used to determine the appropriate timing and conditions for
transfer of control between driver and vehicle. However, such models rely on
real-world control take-over data from drivers engaged in distracting
activities, which is costly to collect. Here, we introduce a scheme for data
augmentation for such a dataset. Using the augmented dataset, we develop and
train take-over time (TOT) models that operate sequentially on mid and
high-level features produced by computer vision algorithms operating on
different driver-facing camera views, showing models trained on the augmented
dataset to outperform the initial dataset. The demonstrated model features
encode different aspects of the driver state, pertaining to the face, hands,
foot and upper body of the driver. We perform ablative experiments on feature
combinations as well as model architectures, showing that a TOT model supported
by augmented data can be used to produce continuous estimates of take-over
times without delay, suitable for complex real-world scenarios.
- Abstract(参考訳): 乗用車自動化への安全なアプローチを確保するためには,制御遷移のモデル化による占有車間相互作用の理解が重要である。
ドライバー状態の文脈的意味的表現を含むモデルを用いて、ドライバーと車両間の制御の伝達の適切なタイミングと条件を決定することができる。
しかし、こうしたモデルは、注意をそらす活動に従事しているドライバーからの実際のコントロールの乗っ取りデータに依存しており、収集にはコストがかかる。
本稿では,このようなデータセットに対するデータ拡張方式を提案する。
統合データセットを用いて、異なるドライバ対面カメラビューで動作するコンピュータビジョンアルゴリズムによって生成される中高レベルの機能に対して順次動作するテイクオーバー時間(TOT)モデルを開発し、訓練し、初期データセットよりも優れたパフォーマンスを示す。
デモされたモデルでは、ドライバーの顔、手、足、上半身など、ドライバー状態の異なる側面をコード化している。
我々は,機能の組み合わせとモデルアーキテクチャに関するアブレーティブな実験を行い,拡張データによってサポートされているTOTモデルを,複雑な実世界のシナリオに適した,遅延のないテイクオーバ時間の連続的な推定に利用できることを示した。
関連論文リスト
- Generalized Predictive Model for Autonomous Driving [75.39517472462089]
本稿では,自動運転分野における最初の大規模ビデオ予測モデルを紹介する。
我々のモデルはGenADと呼ばれ、新しい時間的推論ブロックでシーンを駆動する際の挑戦的なダイナミクスを扱う。
アクション条件付き予測モデルやモーションプランナーに適応することができ、現実世界の運転アプリケーションに大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-03-14T17:58:33Z) - Trajeglish: Learning the Language of Driving Scenarios [75.61820235290608]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - Driving into the Future: Multiview Visual Forecasting and Planning with
World Model for Autonomous Driving [56.381918362410175]
Drive-WMは、既存のエンド・ツー・エンドの計画モデルと互換性のある世界初のドライビングワールドモデルである。
ドライビングシーンで高忠実度マルチビュー映像を生成する。
論文 参考訳(メタデータ) (2023-11-29T18:59:47Z) - FollowNet: A Comprehensive Benchmark for Car-Following Behavior Modeling [20.784555362703294]
自動車追従行動モデリングのための公開ベンチマークデータセットを構築した。
ベンチマークは、5つの公共運転データセットから抽出された80K以上のカーフォローイベントで構成されている。
以上の結果から, DDPGに基づくモデルでは, 間隔の低いMSEと競合する結果が得られた。
論文 参考訳(メタデータ) (2023-05-25T08:59:26Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - CARNet: A Dynamic Autoencoder for Learning Latent Dynamics in Autonomous
Driving Tasks [11.489187712465325]
自律運転システムは、世界の抽象的な記述を形成するために、様々なセンサから収集した情報を効果的に活用すべきである。
オートエンコーダのようなディープラーニングモデルは、受信データのストリームからコンパクトな潜在表現を学習できるため、その目的のために使用できる。
この研究は、自動エンコーダとリカレントニューラルネットワークを組み合わせて現在の潜伏表現を学習する、複合dynAmicautoencodeRネットワークアーキテクチャであるCARNetを提案する。
論文 参考訳(メタデータ) (2022-05-18T04:15:42Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Autonomous Vehicles that Alert Humans to Take-Over Controls: Modeling
with Real-World Data [11.007092387379076]
本研究は,運転状態の文脈的意味的表現の開発に焦点を当てた。
自律型エージェントの乗っ取り制御を参加者に指示する大規模な実世界制御データスタディを実施します。
これらのテイクオーバーイベントは、複数のドライバー向けカメラを使用してキャプチャされ、ラベル付けされると、コントロール遷移のデータセットと対応するテイクオーバー時間(tot)が生成される。
このデータセットを拡張後、異なるドライバ向けカメラビューで動作するコンピュータビジョンアルゴリズムが生成する低レベルと中レベルの機能でシーケンシャルに動作するtotモデルを開発・訓練する。
論文 参考訳(メタデータ) (2021-04-23T09:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。