論文の概要: Towards Understanding Depth Perception in Foveated Rendering
- arxiv url: http://arxiv.org/abs/2501.18635v1
- Date: Tue, 28 Jan 2025 16:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:00:29.455253
- Title: Towards Understanding Depth Perception in Foveated Rendering
- Title(参考訳): 浮き彫りにおける深度知覚の理解に向けて
- Authors: Sophie Kergaßner, Taimoor Tariq, Piotr Didyk,
- Abstract要約: 立体視の深度知覚にフェーベレートレンダリングが与える影響を調べた最初の評価を行った。
我々の分析では、立体視力は高レベルの周囲のぼかしの影響を受けていない(あるいは改善されている)ことが示されている。
以上の結果から, 卵胞形成は立体視の深度知覚に影響を与えず, 立体視は一般的に用いられるよりも2倍強い卵胞形成に影響を与えていないことが示唆された。
- 参考スコア(独自算出の注目度): 8.442383621450247
- License:
- Abstract: The true vision for real-time virtual and augmented reality is reproducing our visual reality in its entirety on immersive displays. To this end, foveated rendering leverages the limitations of spatial acuity in human peripheral vision to allocate computational resources to the fovea while reducing quality in the periphery. Such methods are often derived from studies on the spatial resolution of the human visual system and its ability to perceive blur in the periphery, enabling the potential for high spatial quality in real-time. However, the effects of blur on other visual cues that depend on luminance contrast, such as depth, remain largely unexplored. It is critical to understand this interplay, as accurate depth representation is a fundamental aspect of visual realism. In this paper, we present the first evaluation exploring the effects of foveated rendering on stereoscopic depth perception. We design a psychovisual experiment to quantitatively study the effects of peripheral blur on depth perception. Our analysis demonstrates that stereoscopic acuity remains unaffected (or even improves) by high levels of peripheral blur. Based on our studies, we derive a simple perceptual model that determines the amount of foveation that does not affect stereoacuity. Furthermore, we analyze the model in the context of common foveation practices reported in literature. The findings indicate that foveated rendering does not impact stereoscopic depth perception, and stereoacuity remains unaffected up to 2x stronger foveation than commonly used. Finally, we conduct a validation experiment and show that our findings hold for complex natural stimuli.
- Abstract(参考訳): リアルタイムバーチャルおよび拡張現実の真のビジョンは、没入型ディスプレイで私たちの視覚的現実を再現することだ。
この目的のために、ファーベレートレンダリングは、人間の周辺視における空間的視力の限界を利用して、周辺部の品質を低下させながら、ファーベアに計算資源を割り当てる。
このような手法は、人間の視覚系の空間分解能と周囲のぼやけを知覚する能力の研究からしばしば導かれる。
しかし、奥行きなどの輝度コントラストに依存する他の視覚的手がかりに対するぼやけの影響は、明らかにされていない。
正確な深度表現は視覚リアリズムの基本的な側面であるため、この相互作用を理解することは重要である。
本稿では,立体視の深度知覚に対するフェーベレートレンダリングの影響を探求する最初の評価について述べる。
本研究では、周囲のぼかしが深度知覚に与える影響を定量的に研究するための心理視覚実験を設計する。
我々の分析では、立体視力は高レベルの周囲のぼかしの影響を受けていない(あるいは改善されている)ことが示されている。
本研究は,立体視に影響を及ぼさない巣の量を決定する単純な知覚モデルから導いたものである。
さらに,文献に報告されている共通のファベーション・プラクティスの文脈でモデルを解析する。
以上の結果から, 卵胞形成は立体視の深度知覚に影響を与えず, 立体視は一般的に用いられるよりも2倍強い卵胞形成に影響を与えていないことが示唆された。
最後に, 検証実験を行い, 実験結果が複雑な自然刺激に有効であることを示す。
関連論文リスト
- Influence of field of view in visual prostheses design: Analysis with a VR system [3.9998518782208783]
視覚補綴における空間分解能に対する視野の影響を評価する。
通常視認される被験者は24名に、通常の物体の発見と認識を依頼された。
その結果、視野が大きくなると精度と応答時間が低下することがわかった。
論文 参考訳(メタデータ) (2025-01-28T22:25:22Z) - Cracking the Code of Hallucination in LVLMs with Vision-aware Head Divergence [69.86946427928511]
大型視覚言語モデル(LVLM)における幻覚を駆動する内部メカニズムについて検討する。
本稿では,視覚的コンテキストに対する注目ヘッド出力の感度を定量化する指標として,視覚認識型頭部偏差(VHD)を紹介する。
視覚認識型頭部強化(VHR)は,視覚認識型頭部機能を高めることで幻覚を緩和するための訓練不要なアプローチである。
論文 参考訳(メタデータ) (2024-12-18T15:29:30Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Pupil-Adaptive 3D Holography Beyond Coherent Depth-of-Field [42.427021878005405]
ホログラフィックディスプレイのコヒーレントな奥行きと、非コヒーレントな光によって現実世界で見られるものとのギャップを埋める枠組みを提案する。
本稿では,現在のコンピュータによるホログラフィー手法では不可能な画像効果を生み出すために,観察者の眼球の現在の状態に基づいて,その受容場をその場で調整する学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-17T11:01:54Z) - Enhancing Perception and Immersion in Pre-Captured Environments through
Learning-Based Eye Height Adaptation [19.959897524064353]
目の高さが変化した全方位画像に対する新しい視点の学習に基づくアプローチを提案する。
本手法は,全方向認識深度画像の改良により,視高適応のための自然視と現実視を合成する。
論文 参考訳(メタデータ) (2023-08-24T19:14:28Z) - Assessing visual acuity in visual prostheses through a virtual-reality
system [7.529227133770206]
現在の視覚インプラントは、非常に低解像度で視野が限られており、インプラント患者では視力に制限がある。
我々は,仮想現実感ソフトウェアと携帯型ヘッドマウントディスプレイを組み合わせて,模擬義肢視覚下での通常視認者の性能を評価する。
その結果, 視力は1.3logMAR, 20deg, 1000 phosphene で, 視力は1.3 logMARであった。
論文 参考訳(メタデータ) (2022-05-20T18:24:15Z) - On the Sins of Image Synthesis Loss for Self-supervised Depth Estimation [60.780823530087446]
画像合成の改善は深度推定の改善を必要としないことを示す。
この発散現象は、データから生じるアレラトリックな不確実性に起因している。
この観察された発散は、以前に報告されたり、深く研究されたりしていない。
論文 参考訳(メタデータ) (2021-09-13T17:57:24Z) - StereoPIFu: Depth Aware Clothed Human Digitization via Stereo Vision [54.920605385622274]
本研究では,立体視の幾何学的制約をPIFuの暗黙的関数表現と統合し,人間の3次元形状を復元するStereoPIFuを提案する。
従来の作品と比較すると, ステレオピフは衣服によるヒト再建のロバスト性, 完全性, 正確性が著しく向上した。
論文 参考訳(メタデータ) (2021-04-12T08:41:54Z) - Deep Learning--Based Scene Simplification for Bionic Vision [0.0]
対象のセグメンテーションは,視覚的サリエンシと単眼深度推定に基づくモデルよりも,シーン理解を支援する可能性が示唆された。
この研究は、網膜変性疾患を患っている人に対する人工視覚の有用性を大幅に改善する可能性がある。
論文 参考訳(メタデータ) (2021-01-30T19:35:33Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。