論文の概要: Effects of Augmented-Reality-Based Assisting Interfaces on Drivers'
Object-wise Situational Awareness in Highly Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2206.02332v1
- Date: Mon, 6 Jun 2022 03:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:19:32.920694
- Title: Effects of Augmented-Reality-Based Assisting Interfaces on Drivers'
Object-wise Situational Awareness in Highly Autonomous Vehicles
- Title(参考訳): 高次自律走行車における運転者の客観的状況認識に及ぼす拡張現実インタフェースの影響
- Authors: Xiaofeng Gao, Xingwei Wu, Samson Ho, Teruhisa Misu, Kumar Akash
- Abstract要約: われわれは拡張現実(AR)に基づくユーザインタフェースに注力し、道路上の潜在的な危険を浮き彫りにする。
本研究は, 交通密度, 物体位置, 物体の種類によって, 運転者のSAに対する強調効果が変化することを示した。
- 参考スコア(独自算出の注目度): 13.311257059976692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although partially autonomous driving (AD) systems are already available in
production vehicles, drivers are still required to maintain a sufficient level
of situational awareness (SA) during driving. Previous studies have shown that
providing information about the AD's capability using user interfaces can
improve the driver's SA. However, displaying too much information increases the
driver's workload and can distract or overwhelm the driver. Therefore, to
design an efficient user interface (UI), it is necessary to understand its
effect under different circumstances. In this paper, we focus on a UI based on
augmented reality (AR), which can highlight potential hazards on the road. To
understand the effect of highlighting on drivers' SA for objects with different
types and locations under various traffic densities, we conducted an in-person
experiment with 20 participants on a driving simulator. Our study results show
that the effects of highlighting on drivers' SA varied by traffic densities,
object locations and object types. We believe our study can provide guidance in
selecting which object to highlight for the AR-based driver-assistance
interface to optimize SA for drivers driving and monitoring partially
autonomous vehicles.
- Abstract(参考訳): 一部自動運転(ad)システムは生産車両ではすでに利用可能であるが、運転中は十分なレベルの状況認識(sa)を維持する必要がある。
これまでの研究では、ADの能力に関する情報をユーザインタフェースを使って提供することで、運転者のSAを改善することが示されている。
しかし、情報が多すぎるとドライバーの作業負荷が増加し、ドライバーを邪魔したり圧倒したりすることがある。
したがって、効率的なユーザインタフェース(UI)を設計するには、異なる状況下でその効果を理解する必要がある。
本稿では,拡張現実(AR)に基づくUIに焦点を当て,道路上の潜在的な危険を浮き彫りにする。
様々な交通密度の異なる車両の運転者saに対する強調表示の効果を理解するため,運転シミュレータ上で20名の被験者による個人内実験を行った。
本研究は, 交通密度, 物体位置, 物体の種類によって, 運転者のSAに対する強調効果が変化することを示した。
私たちの研究は、arベースのドライバー・アシスタンス・インタフェースで強調する対象を選択するためのガイダンスを提供し、一部自動運転車の運転と監視にsaを最適化できると考えています。
関連論文リスト
- Towards Infusing Auxiliary Knowledge for Distracted Driver Detection [11.816566371802802]
引き離された運転は世界中の道路事故の主要な原因である。
シーン内のエンティティ間の意味的関係とドライバのポーズの構造的構成に関する補助的知識を注入することで,運転者検出(DDD)の新たな手法であるKiD3を提案する。
具体的には、シーングラフを統合した統合フレームワークを構築し、ドライバが映像フレーム内の視覚的手がかりと情報を合成し、ドライバの行動の全体像を作成する。
論文 参考訳(メタデータ) (2024-08-29T15:28:42Z) - Learning Driver Models for Automated Vehicles via Knowledge Sharing and
Personalization [2.07180164747172]
本稿では,自動車間の知識共有とパーソナライゼーションを通じて,自動走行車(AV)ドライバモデルを学習するためのフレームワークについて述べる。
インテリジェントな輸送システム、交通管理、車両間通信など、輸送工学にまたがるいくつかの応用を見出している。
論文 参考訳(メタデータ) (2023-08-31T17:18:15Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - On the Forces of Driver Distraction: Explainable Predictions for the
Visual Demand of In-Vehicle Touchscreen Interactions [5.375634674639956]
車載タッチスクリーンHuman-Machine Interfaces(HMI)は、可能な限り気を散らさなければならない。
本稿では,車内タッチスクリーン相互作用の視覚的要求を予測する機械学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-05T13:50:26Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - In-Vehicle Interface Adaptation to Environment-Induced Cognitive
Workload [55.41644538483948]
車両内ヒューマンマシンインタフェース(HMI)は長年にわたって進化し、ますます多くの機能を提供している。
この問題に対処するために,ドライバの精神的負荷に応じて変化する適応的HMIを提案する。
論文 参考訳(メタデータ) (2022-10-20T13:42:25Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Audiovisual Affect Assessment and Autonomous Automobiles: Applications [0.0]
このコントリビューションは、課題を予測し、ロードコンテキスト上のマルチモーダルな"オーディオプラスx"におけるモデリングに影響を与える潜在的な方法を提供することを目的としています。
技術的には、乗用車内の個人を全面的にモデル化し、信頼性の高いダイアリゼーションを行う。
結論として、自動感情分析は、最初に選択されたユースケースにおける自動運転車の適用可能性の点まで成熟した。
論文 参考訳(メタデータ) (2022-03-14T20:39:02Z) - TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration [31.908276711898548]
本稿では、視覚変換器に基づく二次運転行動認識のための視覚ベースのフレームワークと、機能分散キャリブレーションモジュールを提案する。
当社のフレームワークは,すべてのレベルにおいて,公的なDrive&Actベンチマークの過去の成果を上回り,認識率を常に向上させています。
論文 参考訳(メタデータ) (2022-03-02T08:14:06Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。