論文の概要: Classification of Safety Driver Attention During Autonomous Vehicle
Operation
- arxiv url: http://arxiv.org/abs/2310.11608v1
- Date: Tue, 17 Oct 2023 22:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:10:08.408704
- Title: Classification of Safety Driver Attention During Autonomous Vehicle
Operation
- Title(参考訳): 自動運転車運転時の安全運転注意の分類
- Authors: Santiago Gerling Konrad, Julie Stephany Berrio, Mao Shan, Favio Masson
and Stewart Worrall
- Abstract要約: 本稿では、車両オペレーターと車両認識システムに対向する赤外線カメラからのデータを統合したデュアルソースアプローチを提案する。
提案システムは,車両運転者の注意度基準を効果的に決定し,警告や自律機能低下などの介入を適切に行う。
- 参考スコア(独自算出の注目度): 11.33083039877258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the continual advances in Advanced Driver Assistance Systems (ADAS)
and the development of high-level autonomous vehicles (AV), there is a general
consensus that for the short to medium term, there is a requirement for a human
supervisor to handle the edge cases that inevitably arise. Given this
requirement, it is essential that the state of the vehicle operator is
monitored to ensure they are contributing to the vehicle's safe operation. This
paper introduces a dual-source approach integrating data from an infrared
camera facing the vehicle operator and vehicle perception systems to produce a
metric for driver alertness in order to promote and ensure safe operator
behaviour. The infrared camera detects the driver's head, enabling the
calculation of head orientation, which is relevant as the head typically moves
according to the individual's focus of attention. By incorporating
environmental data from the perception system, it becomes possible to determine
whether the vehicle operator observes objects in the surroundings. Experiments
were conducted using data collected in Sydney, Australia, simulating AV
operations in an urban environment. Our results demonstrate that the proposed
system effectively determines a metric for the attention levels of the vehicle
operator, enabling interventions such as warnings or reducing autonomous
functionality as appropriate. This comprehensive solution shows promise in
contributing to ADAS and AVs' overall safety and efficiency in a real-world
setting.
- Abstract(参考訳): 高度運転支援システム(ADAS)の継続的な進歩と高度自動運転車(AV)の開発にもかかわらず、短期から中期においては、人間が必然的に発生するエッジケースを扱う必要があるという一般的な認識がある。
この要件を考えると、車両運転者の状態が車両の安全運転に寄与していることを保証するために監視されることが不可欠である。
本稿では,車両操作者に対向する赤外線カメラと車両認識システムからのデータを統合し,運転者の警戒度測定値を作成し,運転者の安全行動の促進と確保を図る。
赤外線カメラは、運転者の頭部を検出し、頭部の向きの計算を可能にする。
認識システムから環境データを取り入れることで、車両操作者が周囲の物体を観察するかどうかを判断することができる。
オーストラリアのシドニーで収集したデータを用いて,都市環境下でのAV運転をシミュレーションした実験を行った。
提案システムは,車両運転者の注意度基準を効果的に決定し,警告や自律機能低下などの介入を適切に行うことができることを示す。
この包括的なソリューションは、現実の環境でのADASとAVSの全体的な安全性と効率への貢献を約束している。
関連論文リスト
- MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Assessing Drivers' Situation Awareness in Semi-Autonomous Vehicles: ASP
based Characterisations of Driving Dynamics for Modelling Scene
Interpretation and Projection [0.0]
我々は,運転者が状況に気付いているかを判断し,人間中心の支援を提供するための枠組みを提案する。
このフレームワークはロボット・オペレーティング・システム(ROS)内のモジュールシステムとして開発され、環境と運転者の状態を検知するモジュールを備えている。
本稿では、運転者の解釈とシーンの投影をモデル化し、推論するAnswer Set Programming(ASP)に基づくアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2023-08-30T09:07:49Z) - Visual Saliency Detection in Advanced Driver Assistance Systems [7.455416595124159]
本稿では,ドライバの眠気検知システムと,サリエンシに基づく情景理解パイプラインを組み合わせたインテリジェントシステムを提案する。
我々は、運転者を監視するために、ハンドルに埋め込まれた革新的なバイオセンサーを使用している。
収集したPSG時系列を分類するために、専用の1D時間深部畳み込みネットワークが考案された。
論文 参考訳(メタデータ) (2023-07-26T15:41:54Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z) - Driver Drowsiness Classification Based on Eye Blink and Head Movement
Features Using the k-NN Algorithm [8.356765961526955]
この研究は、ドライバー監視カメラの信号を用いて、車両内の運転者の眠気検知を拡張することを目的としている。
この目的のために、運転シミュレータ実験において、運転者の点眼行動と頭部運動に関連する35の特徴を抽出する。
最高の特徴セットの分析は、運転者の瞬き行動と頭部の動きに対する眠気の影響についての貴重な洞察を与える。
論文 参考訳(メタデータ) (2020-09-28T12:37:38Z) - A Survey and Tutorial of EEG-Based Brain Monitoring for Driver State
Analysis [164.93739293097605]
EEGは運転状態のモニタリングとヒューマンエラー検出において最も効果的な方法の1つであることが証明されている。
本稿では,過去30年間の脳波に基づく運転状態検出システムとその解析アルゴリズムについて論じる。
現在のEEGベースの運転状態監視アルゴリズムは、安全アプリケーションに有望である、と結論付けている。
論文 参考訳(メタデータ) (2020-08-25T18:21:35Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。