論文の概要: ChromaCorrect: Prescription Correction in Virtual Reality Headsets
through Perceptual Guidance
- arxiv url: http://arxiv.org/abs/2212.04264v1
- Date: Thu, 8 Dec 2022 13:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:43:43.821994
- Title: ChromaCorrect: Prescription Correction in Virtual Reality Headsets
through Perceptual Guidance
- Title(参考訳): クロマコレクト:知覚誘導によるバーチャルリアリティヘッドセットの処方補正
- Authors: Ahmet G\"uzel, Jeanne Beyazian, Praneeth Chakravarthula and Kaan
Ak\c{s}it
- Abstract要約: メガネは、拡張現実と仮想現実のヘッドセットで使うと、さらに大きめの不快感と不快感を引き起こす。
本稿では,よりシャープで没入的なVR画像を提供するための処方薬を意識したレンダリング手法を提案する。
デスクトップやVRヘッドセットなど,さまざまなディスプレイに対するアプローチを評価し,視覚障害のあるユーザに対して,大幅な品質向上とコントラスト向上を図っている。
- 参考スコア(独自算出の注目度): 3.365646526465954
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A large portion of today's world population suffer from vision impairments
and wear prescription eyeglasses. However, eyeglasses causes additional bulk
and discomfort when used with augmented and virtual reality headsets, thereby
negatively impacting the viewer's visual experience. In this work, we remedy
the usage of prescription eyeglasses in Virtual Reality (VR) headsets by
shifting the optical complexity completely into software and propose a
prescription-aware rendering approach for providing sharper and immersive VR
imagery. To this end, we develop a differentiable display and visual perception
model encapsulating display-specific parameters, color and visual acuity of
human visual system and the user-specific refractive errors. Using this
differentiable visual perception model, we optimize the rendered imagery in the
display using stochastic gradient-descent solvers. This way, we provide
prescription glasses-free sharper images for a person with vision impairments.
We evaluate our approach on various displays, including desktops and VR
headsets, and show significant quality and contrast improvements for users with
vision impairments.
- Abstract(参考訳): 今日の世界の人口の大多数は視力障害を患い、眼鏡をかけている。
しかし、眼鏡は拡張現実やバーチャルリアリティーヘッドセットで使用すると、さらにバルクや不快感を引き起こし、視聴者の視覚体験に悪影響を及ぼす。
本研究は,VRヘッドセットにおける処方眼ガラスの使用を,光学的複雑さを完全にソフトウェアにシフトさせることによって改善し,よりシャープで没入的なVR画像を提供するための処方眼レンダリングアプローチを提案する。
そこで本研究では,人間の視覚システムの表示特性,色,視力をカプセル化した識別可能な表示・視覚知覚モデルと,ユーザ固有の屈折誤差について述べる。
この微分可能な視覚知覚モデルを用いて、確率勾配差解法を用いてディスプレイの描画画像を最適化する。
このように視力障害のある人に眼鏡不要のシャープな画像を提供する。
デスクトップやVRヘッドセットなど,さまざまなディスプレイに対するアプローチを評価し,視覚障害のあるユーザに対して,大幅な品質向上とコントラスト向上を示す。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Universal Facial Encoding of Codec Avatars from VR Headsets [32.60236093340087]
コンシューマー向けVRヘッドセットのヘッドマウントカメラ(HMC)を用いて,光リアルアバターをリアルタイムにアニメーションする手法を提案する。
本稿では,実行時の効率向上に最小限のコストで精度を高める軽量な式キャリブレーション機構を提案する。
論文 参考訳(メタデータ) (2024-07-17T22:08:15Z) - Less Cybersickness, Please: Demystifying and Detecting Stereoscopic Visual Inconsistencies in VR Apps [46.63489566687515]
立体視的不整合(SVI)の問題は、ユーザの脳のレンダリングプロセスを損なう。
本稿では,立体視の不整合を識別するための非教師付きブラックボックステストフレームワークであるStereoIDを提案する。
実験のために、288の現実世界のVRアプリから171K以上の画像を持つ、大規模な未ラベルのVRステレオスクリーンショットデータセットを構築しました。
論文 参考訳(メタデータ) (2024-06-13T16:48:48Z) - Simulation of a Vision Correction Display System [0.0]
本稿では,視覚障害者の視覚体験を高めるために,視覚補正ディスプレイ(VCD)のシミュレーションに焦点を当てた。
これらのシミュレーションでは、視覚力と快適さの潜在的な改善が見られる。
論文 参考訳(メタデータ) (2024-04-12T04:45:51Z) - Plausible May Not Be Faithful: Probing Object Hallucination in
Vision-Language Pre-training [66.0036211069513]
大規模視覚言語事前学習モデルは、テキストを生成する際に、存在しない視覚オブジェクトを幻覚させる傾向がある。
標準メトリクスでより良いスコアを得るモデルは、オブジェクトをより頻繁に幻覚させる可能性があることを示す。
驚いたことに、パッチベースの機能が最も良く、より小さなパッチ解決は、オブジェクト幻覚の非自明な減少をもたらす。
論文 参考訳(メタデータ) (2022-10-14T10:27:22Z) - NeuralPassthrough: Learned Real-Time View Synthesis for VR [3.907767419763815]
ステレオ一対のRGBカメラを用いたVRヘッドセットを用いて,最初の学習パススルー手法を提案し,その性能を評価する。
得られたパススルー手法は,最先端の手法に比べて画像品質が優れていることを示す。
論文 参考訳(メタデータ) (2022-07-05T17:39:22Z) - Assessing visual acuity in visual prostheses through a virtual-reality
system [7.529227133770206]
現在の視覚インプラントは、非常に低解像度で視野が限られており、インプラント患者では視力に制限がある。
我々は,仮想現実感ソフトウェアと携帯型ヘッドマウントディスプレイを組み合わせて,模擬義肢視覚下での通常視認者の性能を評価する。
その結果, 視力は1.3logMAR, 20deg, 1000 phosphene で, 視力は1.3 logMARであった。
論文 参考訳(メタデータ) (2022-05-20T18:24:15Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。