論文の概要: Predicting Driver Self-Reported Stress by Analyzing the Road Scene
- arxiv url: http://arxiv.org/abs/2109.13225v1
- Date: Mon, 27 Sep 2021 17:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 18:02:48.110993
- Title: Predicting Driver Self-Reported Stress by Analyzing the Road Scene
- Title(参考訳): 道路シーン解析による運転者自己報告ストレスの予測
- Authors: Cristina Bustos, Neska Elhaouij, Albert Sole-Ribalta, Javier
Borge-Holthoefer, Agata Lapedriza, Rosalind Picard
- Abstract要約: 運転者の主観的ストレスレベルを推定するために視覚的運転シーンを使用できるかどうかを検証する手法を開発した。
我々は、AffectiveROADビデオ記録とその対応するストレスラベルを使用する。
ドライバのストレスレベルを分類するための3つのコンピュータビジョンモデリング手法の設計と評価を行う。
- 参考スコア(独自算出の注目度): 0.8155575318208631
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several studies have shown the relevance of biosignals in driver stress
recognition. In this work, we examine something important that has been less
frequently explored: We develop methods to test if the visual driving scene can
be used to estimate a drivers' subjective stress levels. For this purpose, we
use the AffectiveROAD video recordings and their corresponding stress labels, a
continuous human-driver-provided stress metric. We use the common class
discretization for stress, dividing its continuous values into three classes:
low, medium, and high. We design and evaluate three computer vision modeling
approaches to classify the driver's stress levels: (1) object presence
features, where features are computed using automatic scene segmentation; (2)
end-to-end image classification; and (3) end-to-end video classification. All
three approaches show promising results, suggesting that it is possible to
approximate the drivers' subjective stress from the information found in the
visual scene. We observe that the video classification, which processes the
temporal information integrated with the visual information, obtains the
highest accuracy of $0.72$, compared to a random baseline accuracy of $0.33$
when tested on a set of nine drivers.
- Abstract(参考訳): いくつかの研究は、ドライバーのストレス認識における生体信号の関連性を示している。
本研究では,運転者の主観的ストレスレベルを推定するために視覚的な運転シーンを使用できるかどうかを検証する手法を開発する。
この目的のために、AffectiveROADビデオ記録とそれに対応するストレスラベル、連続人ドライバーによるストレス測定を使用する。
ストレスに対して共通クラス離散化を使用し、その連続した値を低、中、高の3つのクラスに分割する。
運転者のストレスレベルを分類するためのコンピュータビジョンモデリング手法として,(1)自動シーンセグメンテーションによる特徴の計算,(2)エンドツーエンド画像分類,(3)エンド・ツー・エンドビデオ分類の3つの手法を設計し,評価した。
3つのアプローチはいずれも有望な結果を示し、視覚的なシーンで見つかった情報からドライバーの主観的ストレスを近似することができることを示唆している。
視覚情報と統合された時間情報を処理する映像分類では,9人のドライバでテストした場合のランダムベースライン精度よりも0.72ドルが最も高い。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Towards Infusing Auxiliary Knowledge for Distracted Driver Detection [11.816566371802802]
引き離された運転は世界中の道路事故の主要な原因である。
シーン内のエンティティ間の意味的関係とドライバのポーズの構造的構成に関する補助的知識を注入することで,運転者検出(DDD)の新たな手法であるKiD3を提案する。
具体的には、シーングラフを統合した統合フレームワークを構築し、ドライバが映像フレーム内の視覚的手がかりと情報を合成し、ドライバの行動の全体像を作成する。
論文 参考訳(メタデータ) (2024-08-29T15:28:42Z) - Vision-Language Models can Identify Distracted Driver Behavior from Naturalistic Videos [29.529768377746194]
本稿では,CLIPに基づく運転行動認識手法を提案する。
以上の結果から、このフレームワークは、ゼロショット転送における最先端のパフォーマンスと、2つの公開データセット上でドライバの状態を予測するためのビデオベースCLIPを提供する。
論文 参考訳(メタデータ) (2023-06-16T20:02:51Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Multimodal Brain-Computer Interface for In-Vehicle Driver Cognitive Load
Measurement: Dataset and Baselines [20.22894459715378]
本稿では,新しいドライバ認知負荷評価データセットCL-Driveを紹介する。
データは、没入型車両シミュレーターで運転中に21人の被験者から収集された。
各ドライバーは、実験を通して10秒ごとに主観的認知負荷を報告した。
論文 参考訳(メタデータ) (2023-04-09T16:35:31Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - An Image-based Approach of Task-driven Driving Scene Categorization [7.291979964739049]
本稿では,弱監督データを用いたタスク駆動運転場面分類手法を提案する。
異なるセマンティック属性のシーンを対比学習によって識別する尺度を学習する。
セマンティックシーン類似性学習とドライビングシーン分類の結果を広範囲に研究した。
論文 参考訳(メタデータ) (2021-03-10T08:23:36Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。