論文の概要: How Video Passthrough Headsets Influence Perception of Self and Others
- arxiv url: http://arxiv.org/abs/2407.16904v1
- Date: Tue, 23 Jul 2024 23:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 15:12:43.220324
- Title: How Video Passthrough Headsets Influence Perception of Self and Others
- Title(参考訳): ビデオ・パッスルー・ヘッドセットが自己や他者の知覚にどのように影響するか
- Authors: Monique Santoso, Jeremy N. Bailenson,
- Abstract要約: 本研究では,ビデオパススルーがユーザに与える影響を定量的に検討する。
40人の参加者が1度はヘッドセットを装着しながら2回、そして1度はヘッドセットを装着せずに、ボディ転送タスクを完了した。
その結果、ビデオパススルーは、シミュレーター病を誘発し、社会的不在を発生させ、自己報告された身体スキーマを変更し、距離知覚を歪ませることを示す。
- 参考スコア(独自算出の注目度): 0.276240219662896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing adoption of mixed reality headsets with video passthrough functionality, concerns over perceptual and social effects have surfaced. Building on prior qualitative findings, this study quantitatively investigates the impact of video passthrough on users. Forty participants completed a body transfer task twice, once while wearing a headset in video passthrough and once without a headset. Results indicate that using video passthrough induces simulator sickness, creates social absence, (another person in the physical room feels less present), alters self-reported body schema, and distorts distance perception. On the other hand, compared to past research which showed perceptual aftereffects from video passthrough, the current study found none. We discuss the broader implications for the widespread adoption of mixed reality headsets and their impact on theories surrounding presence and body transfer.
- Abstract(参考訳): ビデオパススルー機能を備えた複合現実感ヘッドセットの普及に伴い、知覚と社会的効果に対する懸念が表面化している。
本研究は,事前定性的知見に基づいて,ビデオパススルーがユーザに与える影響を定量的に検討する。
40人の参加者が1度はヘッドセットを装着しながら2回、そして1度はヘッドセットを装着せずに、ボディ転送タスクを完了した。
その結果、ビデオパススルーは、シミュレーター病を誘発し、社会的不在を生じさせ(身体の他の人物は、あまり存在感がないと感じている)、自己報告された身体スキーマを変更し、距離知覚を歪ませることを示す。
一方、過去の研究では、ビデオパススルーによる知覚的残効が見られたが、現在の研究では、何も見つからなかった。
本稿では、複合現実感ヘッドセットの普及と、その存在と身体移動に関する理論への影響について論じる。
関連論文リスト
- Real-Time Simulated Avatar from Head-Mounted Sensors [70.41580295721525]
我々はAR/VRヘッドセットから得られた情報(ヘッドセットポーズとカメラ)からシミュレーションアバターを制御するSimXRを提案する。
カメラでヘッドセットのポーズを合成するために、人型ロボットを制御してヘッドセットの動きをトラッキングし、入力画像を分析して身体の動きを決定する。
体の一部が見えると、手足の動きは画像によって案内され、見えない場合は物理法則が制御器を誘導して可塑性運動を発生させる。
論文 参考訳(メタデータ) (2024-03-11T16:15:51Z) - Personality Perception in Human Videos Altered by Motion Transfer
Networks [0.8192907805418583]
本研究は、移動移動ネットワークによって変化するショートビデオの知覚的パーソナリティに対する動きと外観の影響を解析する。
本稿では,Five-Factorモデルの高,中立,低特性を最もよく表すサンプルを決定するために,ユーザスタディを用いた会議ビデオクリップに個人性をラベル付けする。
我々は、選択したサンプルをソースとして利用し、入力を駆動することで、薄膜スプライン運動モデルを用いてこれらのビデオを変更する。
論文 参考訳(メタデータ) (2024-01-26T09:42:57Z) - Physics-Driven Diffusion Models for Impact Sound Synthesis from Videos [78.49864987061689]
従来の衝撃音合成法では、音を表現・合成できる物理パラメータのセットを得るために物理シミュレーションを用いていた。
既存のビデオ駆動ディープラーニングベースのアプローチは、視覚コンテンツと衝撃音の間の弱い対応を捉えることしかできなかった。
サイレントビデオクリップに高忠実度衝撃音を合成できる物理駆動拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:59:53Z) - NeuralPassthrough: Learned Real-Time View Synthesis for VR [3.907767419763815]
ステレオ一対のRGBカメラを用いたVRヘッドセットを用いて,最初の学習パススルー手法を提案し,その性能を評価する。
得られたパススルー手法は,最先端の手法に比べて画像品質が優れていることを示す。
論文 参考訳(メタデータ) (2022-07-05T17:39:22Z) - Analysis of Co-Laughter Gesture Relationship on RGB videos in Dyadic
Conversation Contex [2.904892426557913]
本研究は、ダイアド会話における笑いと身体の動きの関係について研究する。
深層学習に基づくポーズ推定モデルを用いて,映像から身体の動きを抽出した。
調査したNDC-MEデータセットでは,1つの統計的特徴が笑い強度の30%と弱相関していることがわかった。
論文 参考訳(メタデータ) (2022-05-20T16:00:31Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Learning Audio-Visual Dereverberation [87.52880019747435]
環境中の表面や物体を反射する音声からの残響は、人間の知覚の質を低下させるだけでなく、自動音声認識の精度にも深刻な影響を及ぼす。
我々の考えは、音声・視覚的観察から音声を除去することである。
そこで我々は,観測音と映像シーンの両方に基づいて残響を除去することを学ぶエンドツーエンドアプローチである,視覚インフォームド・デバーベレーション・オブ・オーディオ(VIDA)を紹介した。
論文 参考訳(メタデータ) (2021-06-14T20:01:24Z) - Comparing Human and Machine Deepfake Detection with Affective and
Holistic Processing [2.15145758970292]
本物のビデオとディープフェイクを提示し、参加者にどのビデオなのかを尋ねます。
私たちは、通常の参加者のパフォーマンスを主要なコンピュータビジョンディープフェイク検出モデルと比較します。
偶発的な怒りは参加者のパフォーマンスを低下させ、顔の全体的な視覚処理を妨げることも参加者のパフォーマンスを妨げます。
論文 参考訳(メタデータ) (2021-05-13T18:22:16Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。