論文の概要: Comparative Analysis of Kinect-Based and Oculus-Based Gaze Region
Estimation Methods in a Driving Simulator
- arxiv url: http://arxiv.org/abs/2402.05248v1
- Date: Sun, 4 Feb 2024 18:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 17:20:13.432503
- Title: Comparative Analysis of Kinect-Based and Oculus-Based Gaze Region
Estimation Methods in a Driving Simulator
- Title(参考訳): 運転シミュレータにおけるKinectとOculusによる視線領域推定法の比較解析
- Authors: David Gonz\'alez-Ortega, Francisco Javier D\'iaz-Perna, Mario
Mart\'inez-Zarzuela and M\'iriam Ant\'on-Rodr\'iguez
- Abstract要約: 運転シミュレータに統合された2つの視線領域推定モジュールを提案する。
1つは3D Kinectデバイス、もう1つはバーチャルリアリティーのOculus Riftだ。
Oculus Riftモジュールは、運転シミュレータデータを強化し、マルチモーダル運転性能分析を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Driver's gaze information can be crucial in driving research because of its
relation to driver attention. Particularly, the inclusion of gaze data in
driving simulators broadens the scope of research studies as they can relate
drivers' gaze patterns to their features and performance. In this paper, we
present two gaze region estimation modules integrated in a driving simulator.
One uses the 3D Kinect device and another uses the virtual reality Oculus Rift
device. The modules are able to detect the region, out of seven in which the
driving scene was divided, where a driver is gazing at in every route processed
frame. Four methods were implemented and compared for gaze estimation, which
learn the relation between gaze displacement and head movement. Two are simpler
and based on points that try to capture this relation and two are based on
classifiers such as MLP and SVM. Experiments were carried out with 12 users
that drove on the same scenario twice, each one with a different visualization
display, first with a big screen and later with Oculus Rift. On the whole,
Oculus Rift outperformed Kinect as the best hardware for gaze estimation. The
Oculus-based gaze region estimation method with the highest performance
achieved an accuracy of 97.94%. The information provided by the Oculus Rift
module enriches the driving simulator data and makes it possible a multimodal
driving performance analysis apart from the immersion and realism obtained with
the virtual reality experience provided by Oculus.
- Abstract(参考訳): 運転者の視線情報は運転者の注意との関係から、運転研究において重要である。
特に、運転シミュレーターに視線データを含めることで、運転者の視線パターンと特徴や性能を関連付けることができるため、研究の範囲を広げる。
本稿では,運転シミュレータに統合された2つの視線領域推定モジュールを提案する。
1つは3D Kinectデバイス、もう1つはバーチャルリアリティーのOculus Riftデバイスだ。
モジュールは、運転シーンが分割された7つの領域のうち、ルート処理されたフレームごとにドライバーが注視している領域を検出することができる。
視線変位と頭部運動の関係を学習する視線推定法を4つの手法で実装し比較した。
2つはより単純で、この関係を捉えようとする点に基づいており、2つはMLPやSVMのような分類器に基づいている。
12人のユーザーが同じシナリオを2回運転し、それぞれ異なる視覚化ディスプレイを搭載し、まず大きなスクリーンで、その後Oculus Riftで実験を行った。
oculus riftは、視線推定の最高のハードウェアとしてkinectを抜いた。
最高性能のoculusベースの視線領域推定手法は97.94%の精度を達成した。
Oculus Riftモジュールが提供する情報は、駆動シミュレータデータを強化し、Oculusが提供するバーチャルリアリティ体験によって得られる没入感とリアリズムとは別に、マルチモーダル駆動パフォーマンス分析を可能にする。
関連論文リスト
- Behavioural gap assessment of human-vehicle interaction in real and virtual reality-based scenarios in autonomous driving [7.588679613436823]
我々は,VR実験に携わる参加者の行動の相違を,等価な実世界の状況と比較して捉える概念である行動ギャップ(obactiveal gap)と呼ぶものを評価するための,最初の,革新的なアプローチを提案する。
実験では、歩行者は異なる運転スタイルと外部ヒューマン・マシン・インタフェース(eHMI)の存在下で道路を横断しようとする。
結果は、参加者がVRに対してより慎重で好奇心を持ち、そのスピードと判断に影響を与え、VRインターフェースが行動に大きく影響していることを示している。
論文 参考訳(メタデータ) (2024-07-04T17:20:17Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Nocturne: a scalable driving benchmark for bringing multi-agent learning
one step closer to the real world [11.069445871185744]
部分観測可能性下でのマルチエージェント協調を調査するための新しい2次元駆動シミュレータである textitNocturne を導入する。
Nocturneの焦点は、コンピュータビジョンの計算オーバーヘッドや画像からの特徴抽出を伴わずに、実世界のマルチエージェント環境での推論と心の理論の研究を可能にすることである。
論文 参考訳(メタデータ) (2022-06-20T16:51:44Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - DReyeVR: Democratizing Virtual Reality Driving Simulation for
Behavioural & Interaction Research [5.200989469097526]
DReyeVRは、Unreal EngineとCARLAをベースとしたオープンソースの運転シミュレータである。
このシミュレータを5000ドル以下で展開するために必要なハードウェアについて説明する。
論文 参考訳(メタデータ) (2022-01-06T05:47:08Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。