論文の概要: Learning High-Quality Navigation and Zooming on Omnidirectional Images in Virtual Reality
- arxiv url: http://arxiv.org/abs/2405.00351v1
- Date: Wed, 1 May 2024 07:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 16:27:08.168274
- Title: Learning High-Quality Navigation and Zooming on Omnidirectional Images in Virtual Reality
- Title(参考訳): バーチャルリアリティーにおける全方位画像における高品質ナビゲーションとズームングの学習
- Authors: Zidong Cao, Zhan Wang, Yexin Liu, Yan-Pei Cao, Ying Shan, Wei Zeng, Lin Wang,
- Abstract要約: 我々は,VRナビゲーションにおける視覚的明瞭度を高めるために,OmniVRと呼ばれる新しいシステムを提案する。
当社のシステムでは,VRに関心のある対象を,ユーザーが自由に見つけてズームインすることができる。
- 参考スコア(独自算出の注目度): 37.564863636844905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Viewing omnidirectional images (ODIs) in virtual reality (VR) represents a novel form of media that provides immersive experiences for users to navigate and interact with digital content. Nonetheless, this sense of immersion can be greatly compromised by a blur effect that masks details and hampers the user's ability to engage with objects of interest. In this paper, we present a novel system, called OmniVR, designed to enhance visual clarity during VR navigation. Our system enables users to effortlessly locate and zoom in on the objects of interest in VR. It captures user commands for navigation and zoom, converting these inputs into parameters for the Mobius transformation matrix. Leveraging these parameters, the ODI is refined using a learning-based algorithm. The resultant ODI is presented within the VR media, effectively reducing blur and increasing user engagement. To verify the effectiveness of our system, we first evaluate our algorithm with state-of-the-art methods on public datasets, which achieves the best performance. Furthermore, we undertake a comprehensive user study to evaluate viewer experiences across diverse scenarios and to gather their qualitative feedback from multiple perspectives. The outcomes reveal that our system enhances user engagement by improving the viewers' recognition, reducing discomfort, and improving the overall immersive experience. Our system makes the navigation and zoom more user-friendly.
- Abstract(参考訳): バーチャルリアリティー(VR)における全方位画像(ODI)を見ることは、ユーザがデジタルコンテンツをナビゲートしたり操作したりするための没入的な体験を提供する新しい形式のメディアである。
にもかかわらず、この没入感は、詳細を隠蔽し、ユーザーが興味のある物と関わる能力を損なう、ぼやけた効果によって大きく損なわれる可能性がある。
本稿では,VRナビゲーションにおける視覚的明瞭度を高めるために,OmniVRと呼ばれる新しいシステムを提案する。
当社のシステムでは,VRに関心のある対象を,ユーザーが自由に見つけてズームインすることができる。
ナビゲーションとズームのためのユーザコマンドをキャプチャし、これらの入力をMobius変換マトリックスのパラメータに変換する。
これらのパラメータを活用することで、ODIは学習ベースのアルゴリズムを使用して洗練される。
結果として得られるODIはVRメディア内で表示され、効果的にぼやけを減らし、ユーザのエンゲージメントを増大させる。
提案システムの有効性を検証するため,まず,提案アルゴリズムを公開データセット上で最先端の手法で評価し,その性能を向上する。
さらに,様々なシナリオにおける視聴者体験を評価し,複数の視点から質的なフィードバックを収集するために,包括的ユーザスタディを実施している。
その結果,視聴者の認識の向上,不快感の低減,総合的な没入感の向上などにより,ユーザエンゲージメントの向上が図られた。
私たちのシステムはナビゲーションとズームをよりユーザフレンドリにします。
関連論文リスト
- Can You Move These Over There? An LLM-based VR Mover for Supporting Object Manipulation [12.569646616546235]
LLMを利用したVR Moverを提案する。これは、オブジェクト操作をサポートするユーザの声道指示を理解し、解釈できるソリューションである。
ユーザ調査の結果,VR Moverはユーザビリティ,ユーザエクスペリエンス,マルチオブジェクト操作におけるパフォーマンスの向上を実現している。
論文 参考訳(メタデータ) (2025-02-04T10:27:40Z) - Tremor Reduction for Accessible Ray Based Interaction in VR Applications [0.0]
多くの従来の2Dインタフェースのインタラクション方法は、入力機構にほとんど変更を加えることなく、VR空間で直接動作するように変換されている。
本稿では,低域通過フィルタを用いてユーザ入力ノイズの正規化を行い,光線による相互作用におけるモータの細かな要求を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T17:07:16Z) - Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning [0.0]
本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的とした,Thelxino"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
論文 参考訳(メタデータ) (2024-03-27T21:14:17Z) - Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - 3D Gaze Vis: Sharing Eye Tracking Data Visualization for Collaborative
Work in VR Environment [3.3130410344903325]
私たちは、視線カーソル、視線スポットライト、視線軌跡の3つの異なる視線追跡データ可視化を、人間の心臓のコースのためにVRシーンで設計しました。
医師の視線カーソルは、複雑な3D心臓モデルをより効果的に学習するのに役立ちます。
その結果,視線追跡データの視覚化により,VR環境における協調作業の品質と効率が向上することが示唆された。
論文 参考訳(メタデータ) (2023-03-19T12:00:53Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Full Body Video-Based Self-Avatars for Mixed Reality: from E2E System to
User Study [1.0149624140985476]
この研究は、Mixed Reality(MR)アプリケーションにおけるビデオパススルーによるセルフアバターの作成について検討する。
商用ヘッドマウントディスプレイ(HMD)のMRビデオパススルー実装を含むエンド・ツー・エンドシステムを提案する。
この技術を検証するために、私たちは没入型VR体験を設計しました。
論文 参考訳(メタデータ) (2022-08-24T20:59:17Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Feeling of Presence Maximization: mmWave-Enabled Virtual Reality Meets
Deep Reinforcement Learning [76.46530937296066]
本稿では,無線モバイルユーザに対して,超信頼性でエネルギー効率のよいバーチャルリアリティ(VR)体験を提供するという課題について検討する。
モバイルユーザへの信頼性の高い超高精細ビデオフレーム配信を実現するために,コーディネートマルチポイント(CoMP)伝送技術とミリ波(mmWave)通信を利用する。
論文 参考訳(メタデータ) (2021-06-03T08:35:10Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。