論文の概要: Action-Specific Perception & Performance on a Fitts's Law Task in
Virtual Reality: The Role of Haptic Feedback
- arxiv url: http://arxiv.org/abs/2207.07400v2
- Date: Mon, 18 Jul 2022 06:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:52:23.304402
- Title: Action-Specific Perception & Performance on a Fitts's Law Task in
Virtual Reality: The Role of Haptic Feedback
- Title(参考訳): 仮想現実におけるFittsの法則課題に対する行動特異的知覚とパフォーマンス:ハプティックフィードバックの役割
- Authors: Panagiotis Kourtesis, Sebastian Vizcay, Maud Marchal, Claudio
Pacchierotti, Ferran Argelaguet
- Abstract要約: Action-Specific Perception (ASP) 理論は、タスク上の個人のパフォーマンスが、タスクのコンポーネントとプロシージャに関連する個人の空間的および時間的知覚を調節する、と仮定している。
本稿では,触覚フィードバックのモダリティが生み出す性能と知覚の関係について検討する。
- 参考スコア(独自算出の注目度): 8.993666948179644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While user's perception & performance are predominantly examined
independently in virtual reality, the Action-Specific Perception (ASP) theory
postulates that the performance of an individual on a task modulates this
individual's spatial & time perception pertinent to the task's components &
procedures. This paper examines the association between performance &
perception & the potential effects that tactile feedback modalities could
generate. This paper reports a user study (N=24), in which participants
performed a Fitts's law target acquisition task by using three feedback
modalities: visual, visuo-electrotactile, & visuo-vibrotactile. The users
completed 3 Target Sizes X 2 Distances X 3 feedback modalities = 18 trials. The
size perception, distance perception, & (movement) time perception were
assessed at the end of each trial. Performance-wise, the results showed that
electrotactile feedback facilitates a significantly better accuracy compared to
vibrotactile & visual feedback, while vibrotactile provided the worst accuracy.
Electrotactile & visual feedback enabled a comparable reaction time, while the
vibrotactile offered a substantially slower reaction time than visual feedback.
Although amongst feedback types the pattern of differences in perceptual
aspects were comparable to performance differences, none of them was
statistically significant. However, performance indeed modulated perception.
Significant action-specific effects on spatial & time perception were detected.
Changes in accuracy modulate both size perception & time perception, while
changes in movement speed modulate distance perception. Also, the index of
difficulty was found to modulate perception. These outcomes highlighted the
importance of haptic feedback on performance, & importantly the significance of
action-specific effects on spatial & time perception in VR, which should be
considered in future VR studies.
- Abstract(参考訳): ユーザの知覚とパフォーマンスは、主にバーチャルリアリティーにおいて独立して検討されるが、Action-Specific Perception (ASP)理論は、タスク上の個人のパフォーマンスが、タスクのコンポーネントとプロシージャに関連する個人の空間的および時間的知覚を調整することを仮定している。
本稿では、パフォーマンスと知覚と、触覚フィードバックモダリティが生み出す潜在的な効果との関係について検討する。
本稿では,3つのフィードバックモード(視覚, visuo-electrotactile, visuo-vibrotactile, visuo-vibrotactile)を用いて,fittsの法則目標獲得タスクを行ったユーザスタディ(n=24)について報告する。
ユーザーはTarget Sizes X 2 Distances X 3 feedback modalities = 18 trialを完了した。
各試験の終了時にサイズ知覚,距離知覚,(運動)時間知覚を評価した。
性能面では、電気触覚フィードバックはビブロタクタイルと視覚フィードバックよりもはるかに精度が良いが、ビブロタクタイルは最悪の精度を示した。
電気触覚と視覚フィードバックは同等の反応時間を可能にし、ビブロタクティルは視覚フィードバックよりもかなり遅い反応時間を提供した。
フィードバックタイプでは,知覚的側面の違いパターンは性能差に匹敵するものの,統計的に有意な差はなかった。
しかし、パフォーマンスは実際に知覚を変調した。
空間的および時間的知覚に特異的な作用が検出された。
精度の変化はサイズ知覚と時間知覚の両方を調節し、移動速度の変化は距離知覚を調節する。
また,難易度指標は知覚を調節することが判明した。
これらの結果から,VRの空間的・時間的知覚に対する行動特異的効果の重要性が強調され,今後のVR研究で考慮すべき点が示唆された。
関連論文リスト
- RLPeri: Accelerating Visual Perimetry Test with Reinforcement Learning
and Convolutional Feature Extraction [8.88154717905851]
RLPeriは、視覚的ペリメトリテストの最適化のための強化学習に基づくアプローチである。
我々は、正確な結果を提供しながら、視覚的腹腔鏡検査をより効率的かつ患者に優しいものにすることを目指している。
論文 参考訳(メタデータ) (2024-03-08T07:19:43Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - User Training with Error Augmentation for Electromyogram-based Gesture
Classification [4.343691138091818]
手首バンド構成の8電極から表面筋電図(sEMG)活性を抽出し,ユーザインタフェースをリアルタイムに制御するシステムの設計と試験を行った。
sEMGデータは、リアルタイムで手の動きを分類する機械学習アルゴリズムにストリームされた。
論文 参考訳(メタデータ) (2023-09-13T20:15:25Z) - The Psychophysics of Human Three-Dimensional Active Visuospatial
Problem-Solving [12.805267089186533]
2つの物理的3Dオブジェクトは視覚的に同じか?
人間はこの仕事を訓練なしで非常に得意であり、平均精度は93.82%である。
多くの治験後, 学習効果は認められなかったが, 応答時間, 固定回数, 頭部運動量に何らかの効果が認められた。
論文 参考訳(メタデータ) (2023-06-19T19:36:42Z) - BigSmall: Efficient Multi-Task Learning for Disparate Spatial and
Temporal Physiological Measurements [28.573472322978507]
生理・行動計測のための効率的なアーキテクチャであるBigSmallを提案する。
本稿では,時間シフトモジュールをラップしたマルチブランチネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-21T03:41:57Z) - Intend-Wait-Perceive-Cross: Exploring the Effects of Perceptual
Limitations on Pedestrian Decision-Making [10.812772606528172]
歩行者行動理解に関する最近の研究は、歩行者の動態と知覚能力に焦点を当てている。
エージェントを用いた歩行者行動モデルIntend-Wait-Perceive-Crossを提案する。
本研究は, 歩行者行動の安全判断に対する知覚的制限の影響について検討し, 歩行者行動の変化にどのように寄与するかを実証する。
論文 参考訳(メタデータ) (2023-02-08T00:47:51Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Visualizing and Understanding Patch Interactions in Vision Transformer [96.70401478061076]
Vision Transformer (ViT) は様々なコンピュータビジョンタスクにおいて主要なツールとなっている。
本稿では,視覚変換器のパッチ間の重要な注意相互作用を分析し,解釈するための,説明可能な新しい可視化手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T13:48:11Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。