論文の概要: Towards Occlusion-Aware Multifocal Displays
- arxiv url: http://arxiv.org/abs/2005.00946v1
- Date: Sat, 2 May 2020 23:51:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 13:11:05.071381
- Title: Towards Occlusion-Aware Multifocal Displays
- Title(参考訳): 閉塞型多焦点ディスプレイに向けて
- Authors: Jen-Hao Rick Chang, Anat Levin, B. V. K. Vijaya Kumar, Aswin C.
Sankaranarayanan
- Abstract要約: 多焦点ディスプレイは、複数の焦点面に仮想コンテンツを配置し、それぞれが希薄な深さに配置する。
新たなConeTilt演算子は、ディスプレイパネルの各ピクセルで出力される光円錐を傾けるという、さらなる自由度を提供する。
位相のみの空間光変調器で容易に実装できることを実証する。
- 参考スコア(独自算出の注目度): 33.48441420074575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The human visual system uses numerous cues for depth perception, including
disparity, accommodation, motion parallax and occlusion. It is incumbent upon
virtual-reality displays to satisfy these cues to provide an immersive user
experience. Multifocal displays, one of the classic approaches to satisfy the
accommodation cue, place virtual content at multiple focal planes, each at a di
erent depth. However, the content on focal planes close to the eye do not
occlude those farther away; this deteriorates the occlusion cue as well as
reduces contrast at depth discontinuities due to leakage of the defocus blur.
This paper enables occlusion-aware multifocal displays using a novel ConeTilt
operator that provides an additional degree of freedom -- tilting the light
cone emitted at each pixel of the display panel. We show that, for scenes with
relatively simple occlusion con gurations, tilting the light cones provides the
same e ect as physical occlusion. We demonstrate that ConeTilt can be easily
implemented by a phase-only spatial light modulator. Using a lab prototype, we
show results that demonstrate the presence of occlusion cues and the increased
contrast of the display at depth edges.
- Abstract(参考訳): ヒトの視覚システムは、視差、調節、運動視差、咬合など、深度知覚に多くの手がかりを用いる。
没入型ユーザエクスペリエンスを提供するために、これらのヒントを満たすために、仮想現実のディスプレイ上に存在する。
調節キューを満たす古典的なアプローチの一つであるマルチ焦点ディスプレイは、仮想コンテンツを複数の焦点平面に配置し、それぞれをディ・エレント深さに配置する。
しかし、眼球近傍の焦点面の含有量はこれらを遠ざけることなく、閉塞キューを悪化させ、デフォーカスのぼかしの漏れによる深部不連続性のコントラストを減少させる。
本稿では,表示パネルの各画素に放出される光円錐を傾けることで,新たな円錐体演算子を用いた咬合対応多焦点ディスプレイを実現する。
比較的単純なオクルージョン・コングレーションのシーンでは、光円錐を傾けると物理的オクルージョンと同じエクトが得られる。
位相のみの空間光変調器で容易に実装可能であることを示す。
実験用プロトタイプを用いて咬合手がかりの存在と奥行きエッジにおけるディスプレイのコントラストの増大を示す結果を示す。
関連論文リスト
- HoloChrome: Polychromatic Illumination for Speckle Reduction in Holographic Near-Eye Displays [8.958725481270807]
ホログラフィックディスプレイは、真に深い奥行きを提供するという約束を持ち、その結果、近目アプリケーションに対する没入型視覚体験が強化される。
現在のホログラフィックディスプレイはスペックルノイズによって妨げられ、表示された画像の色とテクスチャの正確な再現を制限する。
HoloChromeは、これらの制限を緩和するために設計された多色ホログラフィック表示フレームワークである。
論文 参考訳(メタデータ) (2024-10-31T17:05:44Z) - Multiple Latent Space Mapping for Compressed Dark Image Enhancement [51.112925890246444]
既存の暗黒画像強調手法は、圧縮された暗黒画像を入力とし、優れた性能を実現する。
可変オートエンコーダ(VAE)に基づく新しい潜時マッピングネットワークを提案する。
総合的な実験により,提案手法は圧縮暗画像強調における最先端性能を実現することを示した。
論文 参考訳(メタデータ) (2024-03-12T13:05:51Z) - Close-up View synthesis by Interpolating Optical Flow [17.800430382213428]
仮想視点は、深度情報や不明瞭なカメラパラメータが欠如していることから、仮想ナビゲーションにおける新しい技術として認識されている。
我々は,光学フローの比例による仮想視点を得るための双方向光フロー法を開発した。
光学フロー値の創発的な応用により、任意の角にレンズを張ることで、鮮明で視覚的忠実度が向上する。
論文 参考訳(メタデータ) (2023-07-12T04:40:00Z) - Unveiling the Potential of Spike Streams for Foreground Occlusion
Removal from Densely Continuous Views [23.10251947174782]
本研究では,1台のスパイクカメラのみを用いた連続マルチビューイメージングにより,デオクルージョン問題に対処する革新的な解決策を提案する。
スパイクカメラを素早く移動させることで、閉鎖されたシーンからのスパイクの密集した流れを継続的に捉えます。
スパイクの処理を行うために,新しいモデル textbfSpkOccNet を構築し,連続的な視点からスパイクの情報を統合する。
論文 参考訳(メタデータ) (2023-07-03T08:01:43Z) - WildLight: In-the-wild Inverse Rendering with a Flashlight [77.31815397135381]
本研究では、未知の環境光下での逆レンダリングのための実用的な測光ソリューションを提案する。
本システムは,スマートフォンで撮影した多視点画像のみを用いて,シーン形状と反射率を復元する。
提案手法は実装が容易で,セットアップも容易で,既存の逆レンダリング技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-03-24T17:59:56Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - Locality-aware Channel-wise Dropout for Occluded Face Recognition [116.2355331029041]
顔認識は、特に顔が部分的に隠されている場合、制約のないシナリオでは難しいタスクである。
そこで本研究では,ニューロン群の活性化を,精巧に選択されたチャネルに落とすことによって,新しい,エレガントなオクルージョン・シミュレート法を提案する。
種々のベンチマーク実験により,提案手法は最先端の手法よりも優れた性能を示し,性能が向上した。
論文 参考訳(メタデータ) (2021-07-20T05:53:14Z) - Bridge the Vision Gap from Field to Command: A Deep Learning Network
Enhancing Illumination and Details [17.25188250076639]
我々は,明るさを調整し,細部を同時に強化する2ストリームフレームワークNEIDを提案する。
提案手法は,光強調 (LE), 細粒化 (DR), 特徴拡散 (FF) モジュールの3つの部分から構成される。
論文 参考訳(メタデータ) (2021-01-20T09:39:57Z) - Light Field View Synthesis via Aperture Disparity and Warping Confidence
Map [47.046276641506786]
本稿では,スパース画像の集合から任意のカメラ位置からビューを合成するための学習的アプローチを提案する。
この新たなビュー合成の鍵となる課題は、異なる入力画像からのビューが光路の障害物のために一貫性がない場合の再構成プロセスから生じる。
論文 参考訳(メタデータ) (2020-09-07T09:46:01Z) - L^2UWE: A Framework for the Efficient Enhancement of Low-Light
Underwater Images Using Local Contrast and Multi-Scale Fusion [84.11514688735183]
そこで本研究では,局所コントラスト情報から大気光の効率的なモデルが導出可能であるという観測結果に基づいて,単一画像の低照度水中画像エンハンサーL2UWEを提案する。
これらの画像を組み合わせて、高輝度、高輝度、局所コントラストの領域を強調しながら、マルチスケールの融合プロセスを用いる。
水中および低照度シーンに特有な7つの最先端拡張手法に対して,7つの指標を用いてL2UWEの性能を実証した。
論文 参考訳(メタデータ) (2020-05-28T01:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。