論文の概要: On the Forces of Driver Distraction: Explainable Predictions for the
Visual Demand of In-Vehicle Touchscreen Interactions
- arxiv url: http://arxiv.org/abs/2301.02065v1
- Date: Thu, 5 Jan 2023 13:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:27:15.205877
- Title: On the Forces of Driver Distraction: Explainable Predictions for the
Visual Demand of In-Vehicle Touchscreen Interactions
- Title(参考訳): ドライバ・ディトラクションの力について:車内タッチスクリーン相互作用の視覚的要求に対する説明可能な予測
- Authors: Patrick Ebel, Christoph Lingenfelder, Andreas Vogelsang
- Abstract要約: 車載タッチスクリーンHuman-Machine Interfaces(HMI)は、可能な限り気を散らさなければならない。
本稿では,車内タッチスクリーン相互作用の視覚的要求を予測する機械学習手法を提案する。
- 参考スコア(独自算出の注目度): 5.375634674639956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With modern infotainment systems, drivers are increasingly tempted to engage
in secondary tasks while driving. Since distracted driving is already one of
the main causes of fatal accidents, in-vehicle touchscreen Human-Machine
Interfaces (HMIs) must be as little distracting as possible. To ensure that
these systems are safe to use, they undergo elaborate and expensive empirical
testing, requiring fully functional prototypes. Thus, early-stage methods
informing designers about the implication their design may have on driver
distraction are of great value. This paper presents a machine learning method
that, based on anticipated usage scenarios, predicts the visual demand of
in-vehicle touchscreen interactions and provides local and global explanations
of the factors influencing drivers' visual attention allocation. The approach
is based on large-scale natural driving data continuously collected from
production line vehicles and employs the SHapley Additive exPlanation (SHAP)
method to provide explanations leveraging informed design decisions. Our
approach is more accurate than related work and identifies interactions during
which long glances occur with 68 % accuracy and predicts the total glance
duration with a mean error of 2.4 s. Our explanations replicate the results of
various recent studies and provide fast and easily accessible insights into the
effect of UI elements, driving automation, and vehicle speed on driver
distraction. The system can not only help designers to evaluate current designs
but also help them to better anticipate and understand the implications their
design decisions might have on future designs.
- Abstract(参考訳): 現代のインフォテインメントシステムでは、ドライバーは運転中に二次業務に従事する傾向が強まっている。
運転の邪魔は致命的な事故の主な原因の1つなので、車載タッチスクリーンのヒューマンマシンインターフェース(hmis)は可能な限り注意をそらさなければならない。
これらのシステムが安全であることを保証するため、彼らは完全に機能するプロトタイプを必要とする、精巧で高価な実証テストを実施する。
したがって、設計者がドライバーの気遣いにどう影響するかを設計者に知らせる初期段階の手法は非常に価値がある。
本稿では,車内タッチスクリーン相互作用の視覚的要求を予測し,運転者の視覚的注意配分に影響を与える要因の局所的・グローバル的説明を提供する機械学習手法を提案する。
このアプローチは生産ライン車両から継続的に収集された大規模自然運転データに基づいており、SHAP法を用いて情報設計決定を利用した説明を提供する。
提案手法は関連する作業よりも精度が高く,長い視線が68 % の精度で発生するインタラクションを識別し,平均 2.4 s の誤差で総視線持続時間を予測する。
私たちの説明は、最近の様々な研究の結果を再現し、ui要素、運転自動化、ドライバーの気晴らしに対する車両速度の影響について、迅速かつ容易に洞察を与えます。
このシステムは、デザイナーが現在のデザインを評価するのを助けるだけでなく、設計決定が将来のデザインに与える影響をより正確に予測し理解するのに役立つ。
関連論文リスト
- Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - In-Vehicle Interface Adaptation to Environment-Induced Cognitive
Workload [55.41644538483948]
車両内ヒューマンマシンインタフェース(HMI)は長年にわたって進化し、ますます多くの機能を提供している。
この問題に対処するために,ドライバの精神的負荷に応じて変化する適応的HMIを提案する。
論文 参考訳(メタデータ) (2022-10-20T13:42:25Z) - Effects of Augmented-Reality-Based Assisting Interfaces on Drivers'
Object-wise Situational Awareness in Highly Autonomous Vehicles [13.311257059976692]
われわれは拡張現実(AR)に基づくユーザインタフェースに注力し、道路上の潜在的な危険を浮き彫りにする。
本研究は, 交通密度, 物体位置, 物体の種類によって, 運転者のSAに対する強調効果が変化することを示した。
論文 参考訳(メタデータ) (2022-06-06T03:23:34Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - DRIVE: Deep Reinforced Accident Anticipation with Visual Explanation [36.350348194248014]
交通事故予測は、ダッシュカムビデオから将来の事故の発生を正確にかつ迅速に予測することを目的としている。
既存のアプローチは通常、将来の事故が起こる前に、空間的および時間的文脈の手がかりを捉えることに重点を置いている。
本稿では, DRIVE という視覚表現を用いた深部強化型事故予測手法を提案する。
論文 参考訳(メタデータ) (2021-07-21T16:33:21Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。