論文の概要: DReyeVR: Democratizing driving simulation in virtual reality for
behavioural & interaction research
- arxiv url: http://arxiv.org/abs/2201.01931v1
- Date: Thu, 6 Jan 2022 05:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 19:45:23.502820
- Title: DReyeVR: Democratizing driving simulation in virtual reality for
behavioural & interaction research
- Title(参考訳): DReyeVR:行動・インタラクション研究のためのバーチャルリアリティーにおける運転シミュレーションの民主化
- Authors: Gustavo Silvera and Abhijat Biswas and Henny Admoni
- Abstract要約: DReyeVRは、Unreal EngineとCARLAをベースとしたオープンソースの運転シミュレータである。
このシミュレータを5000ドル以下で展開するために必要なハードウェアについて説明する。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulators are an essential tool for behavioural and interaction research on
driving, due to the safety, cost, and experimental control issues of on-road
driving experiments. The most advanced simulators use expensive 360 degree
projections systems to ensure visual fidelity, full field of view, and
immersion. However, similar visual fidelity can be achieved affordably using a
virtual reality (VR) based visual interface. We present DReyeVR, an open-source
VR based driving simulator platform designed with behavioural and interaction
research priorities in mind. DReyeVR (read ``driver'') is based on Unreal
Engine and the CARLA autonomous vehicle simulator and has features such as eye
tracking, a functional driving heads-up display (HUD) and vehicle audio, custom
definable routes and traffic scenarios, experimental logging, replay
capabilities, and compatibility with ROS. We describe the hardware required to
deploy this simulator for under $5000$ USD, much cheaper than commercially
available simulators. Finally, we describe how DReyeVR may be leveraged to
answer an interaction research question in an example scenario.
- Abstract(参考訳): シミュレータは、運転実験の安全性、コスト、実験的な制御問題のために、運転に関する行動と相互作用の研究に不可欠なツールである。
最も先進的なシミュレーターは、高価格の360度プロジェクションシステムを使用して、視力、視野、没入性を確保する。
しかし、同様の視覚的忠実度は、バーチャルリアリティー(VR)ベースのビジュアルインターフェースで十分達成できる。
DReyeVRは、行動および相互作用研究の優先順位を念頭において設計された、オープンソースのVRベースの運転シミュレータプラットフォームである。
DReyeVR (read ``driver'')はUnreal EngineとCARLAの自動運転車シミュレータをベースにしており、アイトラッキング、機能駆動ヘッドアップディスプレイ(HUD)と車載オーディオ、カスタム定義可能なルートと交通シナリオ、実験的なロギング、再生機能、ROSとの互換性などを備えている。
このシミュレータを5000ドル以下で展開するために必要なハードウェアについて説明する。
最後に,DReyeVRを用いてインタラクション研究の質問に答える方法について,実例で述べる。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Behavioural gap assessment of human-vehicle interaction in real and virtual reality-based scenarios in autonomous driving [7.588679613436823]
我々は,VR実験に携わる参加者の行動の相違を,等価な実世界の状況と比較して捉える概念である行動ギャップ(obactiveal gap)と呼ぶものを評価するための,最初の,革新的なアプローチを提案する。
実験では、歩行者は異なる運転スタイルと外部ヒューマン・マシン・インタフェース(eHMI)の存在下で道路を横断しようとする。
結果は、参加者がVRに対してより慎重で好奇心を持ち、そのスピードと判断に影響を与え、VRインターフェースが行動に大きく影響していることを示している。
論文 参考訳(メタデータ) (2024-07-04T17:20:17Z) - Comparative Analysis of Kinect-Based and Oculus-Based Gaze Region
Estimation Methods in a Driving Simulator [0.0]
運転シミュレータに統合された2つの視線領域推定モジュールを提案する。
1つは3D Kinectデバイス、もう1つはバーチャルリアリティーのOculus Riftだ。
Oculus Riftモジュールは、運転シミュレータデータを強化し、マルチモーダル運転性能分析を可能にする。
論文 参考訳(メタデータ) (2024-02-04T18:02:58Z) - GarchingSim: An Autonomous Driving Simulator with Photorealistic Scenes
and Minimalist Workflow [24.789118651720045]
光実写シーンを用いた自律走行シミュレータを提案する。
シミュレータはROS2またはSocket.IOを介して外部アルゴリズムと通信することができる。
シミュレータ内に高精度な車両力学モデルを実装し,車体効果の現実性を高める。
論文 参考訳(メタデータ) (2024-01-28T23:26:15Z) - VisionaryVR: An Optical Simulation Tool for Evaluating and Optimizing
Vision Correction Solutions in Virtual Reality [0.5492530316344587]
このツールには、実験用コントローラ、一般的なアイトラッキング用コントローラ、デフォーカスシミュレータ、一般的なVRアンケートローダが含まれている。
これにより、視覚科学者は、堅牢で現実的で高速な研究環境で研究ツールを拡大することができる。
論文 参考訳(メタデータ) (2023-12-01T16:18:55Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Wireless Edge-Empowered Metaverse: A Learning-Based Incentive Mechanism
for Virtual Reality [102.4151387131726]
メタバースにおけるVRサービスのための学習型インセンティブメカニズムフレームワークを提案する。
まず,仮想世界におけるVRユーザのための指標として,知覚の質を提案する。
第二に、VRユーザー(買い手)とVR SP(売り手)間のVRサービスの迅速な取引のために、オランダの二重オークション機構を設計する。
第3に,この競売プロセスの高速化を目的とした深層強化学習型競売機を設計する。
論文 参考訳(メタデータ) (2021-11-07T13:02:52Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World [84.57894492587053]
物理に基づくシミュレーションと学習に基づくシミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンドのクローズループ評価について紹介する。
論文 参考訳(メタデータ) (2020-06-16T17:44:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。