論文の概要: DeepTake: Prediction of Driver Takeover Behavior using Multimodal Data
- arxiv url: http://arxiv.org/abs/2012.15441v2
- Date: Fri, 15 Jan 2021 17:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 16:58:38.405722
- Title: DeepTake: Prediction of Driver Takeover Behavior using Multimodal Data
- Title(参考訳): DeepTake:マルチモーダルデータを用いたドライバの乗っ取り挙動の予測
- Authors: Erfan Pakdamanian, Shili Sheng, Sonia Baee, Seongkook Heo, Sarit
Kraus, Lu Feng
- Abstract要約: DeepTakeは、取得行動の複数の側面を予測する新しいディープニューラルネットワークベースのフレームワークである。
車両データ、ドライバーバイオメトリックス、主観的測定からの特徴を用いて、deeptakeはドライバーの意図、時間、乗っ取りの質を予測する。
その結果、DeepTakeは、それぞれ96%、93%、83%の精度で、取得の意図、時間、および品質を確実に予測しています。
- 参考スコア(独自算出の注目度): 17.156611944404883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated vehicles promise a future where drivers can engage in non-driving
tasks without hands on the steering wheels for a prolonged period.
Nevertheless, automated vehicles may still need to occasionally hand the
control back to drivers due to technology limitations and legal requirements.
While some systems determine the need for driver takeover using driver context
and road condition to initiate a takeover request, studies show that the driver
may not react to it. We present DeepTake, a novel deep neural network-based
framework that predicts multiple aspects of takeover behavior to ensure that
the driver is able to safely take over the control when engaged in non-driving
tasks. Using features from vehicle data, driver biometrics, and subjective
measurements, DeepTake predicts the driver's intention, time, and quality of
takeover. We evaluate DeepTake performance using multiple evaluation metrics.
Results show that DeepTake reliably predicts the takeover intention, time, and
quality, with an accuracy of 96%, 93%, and 83%, respectively. Results also
indicate that DeepTake outperforms previous state-of-the-art methods on
predicting driver takeover time and quality. Our findings have implications for
the algorithm development of driver monitoring and state detection.
- Abstract(参考訳): 自動運転車は、ドライバーが長時間ハンドルを握らずに非自動運転タスクをこなせる未来を約束している。
それでも、テクノロジーの制限と法的要件のために、自動運転車は時々ドライバーに制御を戻す必要があるかもしれない。
一部のシステムは、ドライバーの状況と道路条件を用いてドライバーの乗っ取り要求を開始する必要があると判断するが、研究はドライバーがその要求に反応しないことを示唆している。
筆者はdeeptakeという、新しいディープニューラルネットワークベースのフレームワークで、乗っ取り行動の複数の側面を予測し、ドライバーが非運転タスクに携わるときに安全に制御を乗っ取ることができるようにする。
車両データ、ドライバーバイオメトリックス、主観的測定からの特徴を用いて、deeptakeはドライバーの意図、時間、乗っ取りの質を予測する。
複数の評価指標を用いてDeepTakeの性能を評価する。
その結果,deeptakeは96%,93%,83%の精度で買収意図,時間,品質を確実に予測できることがわかった。
また、DeepTakeはドライバーの乗っ取り時間と品質を予測する従来の最先端手法よりも優れていた。
本研究は,運転監視と状態検出のアルゴリズム開発に影響を及ぼす。
関連論文リスト
- Federated Learning for Drowsiness Detection in Connected Vehicles [0.19116784879310028]
ドライバー監視システムは、ドライバーの状態を決定するのを助けることができる。
ドライバーの眠気検出は潜在的な解決策を示す。
モデルトレーニングのためにデータを中央マシンに送信するのは、大規模なデータサイズとプライバシの懸念のため、現実的ではありません。
本稿では,YawDDデータセットを活用して,車両ネットワーク内での眠気検出のためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-06T09:39:13Z) - DriveCoT: Integrating Chain-of-Thought Reasoning with End-to-End Driving [81.04174379726251]
本稿では,DriveCoTというエンド・ツー・エンドの運転データセットを総合的に収集する。
センサーデータ、制御決定、および推論プロセスを示すチェーン・オブ・シークレット・ラベルが含まれている。
我々は,私たちのデータセットに基づいてトレーニングされたDriveCoT-Agentと呼ばれるベースラインモデルを提案し,連鎖予測と最終決定を生成する。
論文 参考訳(メタデータ) (2024-03-25T17:59:01Z) - Context-Aware Quantitative Risk Assessment Machine Learning Model for
Drivers Distraction [0.0]
MDDRA(Multi-class Driver Distraction Risk Assessment)モデルは、旅行中の車両、運転者、環境データを考慮したモデルである。
MDDRAは、危険行列上のドライバーを安全、不注意、危険と分類する。
我々は、重度レベルに応じて運転者の気晴らしを分類し、予測するために機械学習技術を適用した。
論文 参考訳(メタデータ) (2024-02-20T23:20:36Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Race Driver Evaluation at a Driving Simulator using a physical Model and
a Machine Learning Approach [1.9395755884693817]
本稿では,ドライバー・イン・ザ・ループシミュレータ上でのレースドライバーの研究と評価を行う。
ドライバーを評価するために、総合的なパフォーマンススコア、車両軌道スコア、ハンドリングスコアを導入する。
ニューラルネットワークは2-5%のルート平均二乗誤差で正確で堅牢であり、最適化に基づく手法を置き換えることができることを示す。
論文 参考訳(メタデータ) (2022-01-27T07:32:32Z) - Driver2vec: Driver Identification from Automotive Data [44.84876493736275]
Driver2vecは、センサーデータの短い10秒間隔からドライバを正確に識別することができる。
Driver2vecは、Nervtechが提供する51人のドライバーのデータセットでトレーニングされている。
論文 参考訳(メタデータ) (2021-02-10T03:09:13Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Driver Drowsiness Classification Based on Eye Blink and Head Movement
Features Using the k-NN Algorithm [8.356765961526955]
この研究は、ドライバー監視カメラの信号を用いて、車両内の運転者の眠気検知を拡張することを目的としている。
この目的のために、運転シミュレータ実験において、運転者の点眼行動と頭部運動に関連する35の特徴を抽出する。
最高の特徴セットの分析は、運転者の瞬き行動と頭部の動きに対する眠気の影響についての貴重な洞察を与える。
論文 参考訳(メタデータ) (2020-09-28T12:37:38Z) - A Survey and Tutorial of EEG-Based Brain Monitoring for Driver State
Analysis [164.93739293097605]
EEGは運転状態のモニタリングとヒューマンエラー検出において最も効果的な方法の1つであることが証明されている。
本稿では,過去30年間の脳波に基づく運転状態検出システムとその解析アルゴリズムについて論じる。
現在のEEGベースの運転状態監視アルゴリズムは、安全アプリケーションに有望である、と結論付けている。
論文 参考訳(メタデータ) (2020-08-25T18:21:35Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。