論文の概要: 3D Gaze Vis: Sharing Eye Tracking Data Visualization for Collaborative
Work in VR Environment
- arxiv url: http://arxiv.org/abs/2303.10635v1
- Date: Sun, 19 Mar 2023 12:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:02:16.450439
- Title: 3D Gaze Vis: Sharing Eye Tracking Data Visualization for Collaborative
Work in VR Environment
- Title(参考訳): 3D Gaze Vis:VR環境における協調作業のための視線追跡データの可視化
- Authors: Song Zhao, Shiwei Cheng, Chenshuang Zhu
- Abstract要約: 私たちは、視線カーソル、視線スポットライト、視線軌跡の3つの異なる視線追跡データ可視化を、人間の心臓のコースのためにVRシーンで設計しました。
医師の視線カーソルは、複雑な3D心臓モデルをより効果的に学習するのに役立ちます。
その結果,視線追跡データの視覚化により,VR環境における協調作業の品質と効率が向上することが示唆された。
- 参考スコア(独自算出の注目度): 3.3130410344903325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conducting collaborative tasks, e.g., multi-user game, in virtual reality
(VR) could enable us to explore more immersive and effective experience.
However, for current VR systems, users cannot communicate properly with each
other via their gaze points, and this would interfere with users' mutual
understanding of the intention. In this study, we aimed to find the optimal eye
tracking data visualization , which minimized the cognitive interference and
improved the understanding of the visual attention and intention between users.
We designed three different eye tracking data visualizations: gaze cursor, gaze
spotlight and gaze trajectory in VR scene for a course of human heart , and
found that gaze cursor from doctors could help students learn complex 3D heart
models more effectively. To further explore, two students as a pair were asked
to finish a quiz in VR environment, with sharing gaze cursors with each other,
and obtained more efficiency and scores. It indicated that sharing eye tracking
data visualization could improve the quality and efficiency of collaborative
work in the VR environment.
- Abstract(参考訳): バーチャルリアリティ(VR)におけるマルチユーザーゲームのような協調的なタスクを実行することで、より没入的で効果的な体験を探索することができる。
しかし、現在のVRシステムでは、ユーザは視線ポイントを介して適切に通信することができず、ユーザの意図に対する相互理解に干渉する可能性がある。
本研究では,認知的干渉を最小化し,ユーザ間の視覚的注意と意図の理解を深める,視線追跡データ可視化の最適化を目指す。
われわれは、視線カーソル、視線スポットライト、視線軌跡の3つの異なる視線追跡データ可視化を設計し、医師による視線カーソルが、複雑な3D心臓モデルをより効果的に学習するのに役立つことを発見した。
さらに,2人の学生が,視線カーソルを互いに共有して,VR環境におけるクイズを仕上げるよう依頼され,効率とスコアが向上した。
視線追跡データ可視化の共有は,vr環境における協調作業の品質と効率を向上できることが示唆された。
関連論文リスト
- Exploring Eye Tracking to Detect Cognitive Load in Complex Virtual Reality Training [11.83314968015781]
視線追跡に基づく機械学習手法を用いて、ユーザの認知負荷を検出するための研究が進行中である。
寒冷噴霧のためのVRトレーニングシステムを開発し,22名の被験者を対象に実験を行った。
予備分析は、複雑なVR体験における認知負荷を検出するためにアイトラッキングを使用することの可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T16:44:19Z) - The Trail Making Test in Virtual Reality (TMT-VR): The Effects of Interaction Modes and Gaming Skills on Cognitive Performance of Young Adults [0.7916635054977068]
本研究は,VRにおけるトレイルメイキングテスト(TMT-VR)の開発と評価である。
異なるインタラクションモードとゲームスキルが認知能力に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-10-30T22:06:14Z) - Learning High-Quality Navigation and Zooming on Omnidirectional Images in Virtual Reality [37.564863636844905]
我々は,VRナビゲーションにおける視覚的明瞭度を高めるために,OmniVRと呼ばれる新しいシステムを提案する。
当社のシステムでは,VRに関心のある対象を,ユーザーが自由に見つけてズームインすることができる。
論文 参考訳(メタデータ) (2024-05-01T07:08:24Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - What do we learn from a large-scale study of pre-trained visual representations in sim and real environments? [48.75469525877328]
本研究では、実世界のタスクを実行する下流政策のトレーニングに、事前訓練された視覚表現(PVR)の使用に関する大規模な実証的研究を行う。
1)シミュレーションにおけるPVRのパフォーマンス傾向は,一般的に実世界におけるPVRのパフォーマンス傾向を示すものである。
論文 参考訳(メタデータ) (2023-10-03T17:27:10Z) - Eye-tracked Virtual Reality: A Comprehensive Survey on Methods and
Privacy Challenges [33.50215933003216]
この調査は、仮想現実(VR)における視線追跡と、それらの可能性のプライバシーへの影響に焦点を当てている。
われわれは2012年から2022年にかけて、視線追跡、VR、プライバシー分野における主要な研究を最初に取り上げている。
我々は、視線に基づく認証と、個人のプライバシーと視線追跡データをVRで保存するための計算方法に焦点を当てる。
論文 参考訳(メタデータ) (2023-05-23T14:02:38Z) - VRContour: Bringing Contour Delineations of Medical Structures Into
Virtual Reality [16.726748230138696]
コントゥーリングは放射線療法(RT)治療計画において必須のステップである。
今日のコンツーリングソフトウェアは2Dディスプレイでしか動作せず、直感的でなく、高いタスク負荷を必要とする。
本稿では,VRContourを紹介するとともに,放射線オンコロジーのためのコンツーリングを効果的にVRに持ち込む方法について検討する。
論文 参考訳(メタデータ) (2022-10-21T23:22:21Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。