論文の概要: ChromaCorrect: Prescription Correction in Virtual Reality Headsets
through Perceptual Guidance
- arxiv url: http://arxiv.org/abs/2212.04264v1
- Date: Thu, 8 Dec 2022 13:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:43:43.821994
- Title: ChromaCorrect: Prescription Correction in Virtual Reality Headsets
through Perceptual Guidance
- Title(参考訳): クロマコレクト:知覚誘導によるバーチャルリアリティヘッドセットの処方補正
- Authors: Ahmet G\"uzel, Jeanne Beyazian, Praneeth Chakravarthula and Kaan
Ak\c{s}it
- Abstract要約: メガネは、拡張現実と仮想現実のヘッドセットで使うと、さらに大きめの不快感と不快感を引き起こす。
本稿では,よりシャープで没入的なVR画像を提供するための処方薬を意識したレンダリング手法を提案する。
デスクトップやVRヘッドセットなど,さまざまなディスプレイに対するアプローチを評価し,視覚障害のあるユーザに対して,大幅な品質向上とコントラスト向上を図っている。
- 参考スコア(独自算出の注目度): 3.365646526465954
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A large portion of today's world population suffer from vision impairments
and wear prescription eyeglasses. However, eyeglasses causes additional bulk
and discomfort when used with augmented and virtual reality headsets, thereby
negatively impacting the viewer's visual experience. In this work, we remedy
the usage of prescription eyeglasses in Virtual Reality (VR) headsets by
shifting the optical complexity completely into software and propose a
prescription-aware rendering approach for providing sharper and immersive VR
imagery. To this end, we develop a differentiable display and visual perception
model encapsulating display-specific parameters, color and visual acuity of
human visual system and the user-specific refractive errors. Using this
differentiable visual perception model, we optimize the rendered imagery in the
display using stochastic gradient-descent solvers. This way, we provide
prescription glasses-free sharper images for a person with vision impairments.
We evaluate our approach on various displays, including desktops and VR
headsets, and show significant quality and contrast improvements for users with
vision impairments.
- Abstract(参考訳): 今日の世界の人口の大多数は視力障害を患い、眼鏡をかけている。
しかし、眼鏡は拡張現実やバーチャルリアリティーヘッドセットで使用すると、さらにバルクや不快感を引き起こし、視聴者の視覚体験に悪影響を及ぼす。
本研究は,VRヘッドセットにおける処方眼ガラスの使用を,光学的複雑さを完全にソフトウェアにシフトさせることによって改善し,よりシャープで没入的なVR画像を提供するための処方眼レンダリングアプローチを提案する。
そこで本研究では,人間の視覚システムの表示特性,色,視力をカプセル化した識別可能な表示・視覚知覚モデルと,ユーザ固有の屈折誤差について述べる。
この微分可能な視覚知覚モデルを用いて、確率勾配差解法を用いてディスプレイの描画画像を最適化する。
このように視力障害のある人に眼鏡不要のシャープな画像を提供する。
デスクトップやVRヘッドセットなど,さまざまなディスプレイに対するアプローチを評価し,視覚障害のあるユーザに対して,大幅な品質向上とコントラスト向上を示す。
関連論文リスト
- DeepMetricEye: Metric Depth Estimation in Periocular VR Imagery [4.940128337433944]
本稿では,U-Net 3+のディープラーニングバックボーンをベースとした軽量なフレームワークを提案する。
本手法は,3次元眼球周囲領域を再構成し,関連する光刺激計算プロトコルと医療ガイドラインの計量基準を提供する。
被験者36名を対象に, 眼球全球精度評価実験, 瞳孔径測定において有意な有効性を示した。
論文 参考訳(メタデータ) (2023-11-13T10:55:05Z) - 3D Gaze Vis: Sharing Eye Tracking Data Visualization for Collaborative
Work in VR Environment [3.3130410344903325]
私たちは、視線カーソル、視線スポットライト、視線軌跡の3つの異なる視線追跡データ可視化を、人間の心臓のコースのためにVRシーンで設計しました。
医師の視線カーソルは、複雑な3D心臓モデルをより効果的に学習するのに役立ちます。
その結果,視線追跡データの視覚化により,VR環境における協調作業の品質と効率が向上することが示唆された。
論文 参考訳(メタデータ) (2023-03-19T12:00:53Z) - On Human Visual Contrast Sensitivity and Machine Vision Robustness: A
Comparative Study [68.41864523774164]
色の違いがマシンビジョンにどのように影響するかは、まだよく研究されていない。
我々の研究は、視覚認識の人間の色覚と機械の色覚のギャップを埋めようとしている。
カラーコントラストと劣化画像の効果を広範囲に解析するために,新しい枠組みを2次元で考案した。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Real-Time Under-Display Cameras Image Restoration and HDR on Mobile
Devices [81.61356052916855]
アンダーディスプレイカメラ(UDC)によって撮影された画像は、その前のスクリーンによって劣化する。
画像復元のためのディープラーニング手法は、キャプチャ画像の劣化を著しく低減することができる。
我々は,視覚的UDC画像復元とHDRのための軽量なモデルを提案し,スマートフォン上での様々な手法の性能と実行状況を比較したベンチマークを提供する。
論文 参考訳(メタデータ) (2022-11-25T11:46:57Z) - Facial De-occlusion Network for Virtual Telepresence Systems [6.501857679289835]
眼領域を非閉塞化するための最先端画像塗布法は有用ではない。
本稿では,VR設定におけるユーザのリアルタイム写真リアリスティック非隠蔽顔の使用を可能にする,この問題に対処するための有用な結果を提供するワーキングソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-23T05:34:17Z) - Plausible May Not Be Faithful: Probing Object Hallucination in
Vision-Language Pre-training [66.0036211069513]
大規模視覚言語事前学習モデルは、テキストを生成する際に、存在しない視覚オブジェクトを幻覚させる傾向がある。
標準メトリクスでより良いスコアを得るモデルは、オブジェクトをより頻繁に幻覚させる可能性があることを示す。
驚いたことに、パッチベースの機能が最も良く、より小さなパッチ解決は、オブジェクト幻覚の非自明な減少をもたらす。
論文 参考訳(メタデータ) (2022-10-14T10:27:22Z) - NeuralPassthrough: Learned Real-Time View Synthesis for VR [3.907767419763815]
ステレオ一対のRGBカメラを用いたVRヘッドセットを用いて,最初の学習パススルー手法を提案し,その性能を評価する。
得られたパススルー手法は,最先端の手法に比べて画像品質が優れていることを示す。
論文 参考訳(メタデータ) (2022-07-05T17:39:22Z) - Assessing visual acuity in visual prostheses through a virtual-reality
system [7.529227133770206]
現在の視覚インプラントは、非常に低解像度で視野が限られており、インプラント患者では視力に制限がある。
我々は,仮想現実感ソフトウェアと携帯型ヘッドマウントディスプレイを組み合わせて,模擬義肢視覚下での通常視認者の性能を評価する。
その結果, 視力は1.3logMAR, 20deg, 1000 phosphene で, 視力は1.3 logMARであった。
論文 参考訳(メタデータ) (2022-05-20T18:24:15Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。