論文の概要: Pupil-Adaptive 3D Holography Beyond Coherent Depth-of-Field
- arxiv url: http://arxiv.org/abs/2409.00028v1
- Date: Sat, 17 Aug 2024 11:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-08 15:40:57.140920
- Title: Pupil-Adaptive 3D Holography Beyond Coherent Depth-of-Field
- Title(参考訳): Coherent Depth-of-Fieldを超える3Dホログラフィー
- Authors: Yujie Wang, Baoquan Chen, Praneeth Chakravarthula,
- Abstract要約: ホログラフィックディスプレイのコヒーレントな奥行きと、非コヒーレントな光によって現実世界で見られるものとのギャップを埋める枠組みを提案する。
本稿では,現在のコンピュータによるホログラフィー手法では不可能な画像効果を生み出すために,観察者の眼球の現在の状態に基づいて,その受容場をその場で調整する学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 42.427021878005405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent holographic display approaches propelled by deep learning have shown remarkable success in enabling high-fidelity holographic projections. However, these displays have still not been able to demonstrate realistic focus cues, and a major gap still remains between the defocus effects possible with a coherent light-based holographic display and those exhibited by incoherent light in the real world. Moreover, existing methods have not considered the effects of the observer's eye pupil size variations on the perceived quality of 3D projections, especially on the defocus blur due to varying depth-of-field of the eye. In this work, we propose a framework that bridges the gap between the coherent depth-of-field of holographic displays and what is seen in the real world due to incoherent light. To this end, we investigate the effect of varying shape and motion of the eye pupil on the quality of holographic projections, and devise a method that changes the depth-of-the-field of holographic projections dynamically in a pupil-adaptive manner. Specifically, we introduce a learning framework that adjusts the receptive fields on-the-go based on the current state of the observer's eye pupil to produce image effects that otherwise are not possible in current computer-generated holography approaches. We validate the proposed method both in simulations and on an experimental prototype holographic display, and demonstrate significant improvements in the depiction of depth-of-field effects, outperforming existing approaches both qualitatively and quantitatively by at least 5 dB in peak signal-to-noise ratio.
- Abstract(参考訳): 近年,ディープラーニングによるホログラム表示手法は,高忠実度ホログラム投影の実現に顕著な成功を収めている。
しかし、これらのディスプレイはまだ現実的な焦点の手がかりを示せず、コヒーレントな光ベースのホログラフィックディスプレイで可能なデフォーカス効果と、現実世界の非コヒーレントな光で示されるデフォーカス効果との間には大きなギャップが残っている。
また,眼球径の変化が3次元投影の知覚的品質,特に眼の深度の変化によるデフォーカスのぼけに及ぼす影響も検討されていない。
そこで本研究では,ホログラフィックディスプレイのコヒーレント深度と,非コヒーレント光による現実世界の視界とのギャップを埋める枠組みを提案する。
そこで本研究では,瞳孔の形状や動きの変化がホログラム投影の質に及ぼす影響について検討し,ホログラム投影の深度を瞳孔適応的に動的に変化させる方法を提案する。
具体的には、観測者の瞳孔の現在の状態に基づいて、現在のコンピュータ生成ホログラフィーでは不可能な画像効果を生成する学習フレームワークを提案する。
提案手法をシミュレーションおよび試作ホログラフィックディスプレイで検証し,フィールド効果の深度描写において,ピーク信号-雑音比において,少なくとも5dBで定性的かつ定量的に既存手法よりも優れた性能を示した。
関連論文リスト
- Low-Light Enhancement Effect on Classification and Detection: An Empirical Study [48.6762437869172]
我々は,低照度画像強調法(LLIE)が高レベル視覚タスクに与える影響を評価する。
本研究は,人間の視覚知覚における画像強調と,機械解析における切り離しを示唆するものである。
この洞察は、人間と機械の視覚の両方のニーズに合致するLLIE技術の開発に不可欠である。
論文 参考訳(メタデータ) (2024-09-22T14:21:31Z) - Data Generation Scheme for Thermal Modality with Edge-Guided Adversarial Conditional Diffusion Model [10.539491614216839]
本稿では,エッジガイド条件拡散モデルと呼ばれる新しい手法を提案する。
可視画像から抽出したエッジ情報を平均化し、画素レベルで正確に整列された擬似熱画像を生成することを目的とする。
LLVIPの実験は、画像生成の品質の観点から、既存の最先端アプローチよりもECDMの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-08-07T13:01:10Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Curved Diffusion: A Generative Model With Optical Geometry Control [56.24220665691974]
最終シーンの外観に対する異なる光学系の影響は、しばしば見過ごされる。
本研究では,画像レンダリングに使用される特定のレンズとテキスト画像拡散モデルを密接に統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-29T13:06:48Z) - Stochastic Light Field Holography [35.73147050231529]
視覚チューリングテストはホログラフィックディスプレイのリアリズムを評価するための最終目標である。
従来の研究は、大規模な焦点音量に対する「注意」や画質の制限といった課題に対処することに注力してきた。
そこで本研究では,非コヒーレント光場の投影演算子をマッチングすることにより,ホログラム生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-12T16:20:08Z) - Neural Point-based Volumetric Avatar: Surface-guided Neural Points for
Efficient and Photorealistic Volumetric Head Avatar [62.87222308616711]
ニューラルポイント表現とニューラルボリュームレンダリングプロセスを採用したフルネーム(名前)を提案する。
具体的には、ニューラルポイントは高分解能UV変位マップを介してターゲット表現の表面を戦略的に拘束する。
設計上は,アバターをアニメーションする際の正確な表現制御を確保しつつ,地形的に変化する領域や細い構造を扱えるように設計されている。
論文 参考訳(メタデータ) (2023-07-11T03:40:10Z) - Learning Visibility Field for Detailed 3D Human Reconstruction and
Relighting [19.888346124475042]
本稿では,新たな視界を付加した疎視的3次元人体再構成フレームワークを提案する。
提案手法の有効性を再現精度の観点から検証し, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-04-24T08:19:03Z) - Depth-Aware Multi-Grid Deep Homography Estimation with Contextual
Correlation [38.95610086309832]
ホログラフィー推定は、画像ステッチ、ビデオ安定化、カメラキャリブレーションなどのコンピュータビジョンにおいて重要なタスクである。
従来のホモグラフィー推定法は特徴点の量と分布に依存するため、テクスチャレスシーンではロバスト性が低い。
特徴写像上の長距離相関を捉えることができ、学習フレームワークに柔軟にブリッジできるコンテキスト相関層を提案する。
我々は,新しい深度認識型形状保存損失を導入することで,ネットワークに深度知覚能力を持たせる。
論文 参考訳(メタデータ) (2021-07-06T10:33:12Z) - Unsupervised Learning of Depth and Depth-of-Field Effect from Natural
Images with Aperture Rendering Generative Adversarial Networks [15.546533383799309]
本稿では,GAN上にアパーチャレンダリングを実装したAR-GAN(Aperture rendering Generative Adversarial Network)を提案する。
実験では,花,鳥,顔画像などの各種データセットにおけるAR-GANの有効性を実証し,これらを他の3次元表現学習GANに組み込むことで可搬性を示し,浅部DoFレンダリングにおけるそれらの適用性を検証する。
論文 参考訳(メタデータ) (2021-06-24T14:15:50Z) - Face Forgery Detection by 3D Decomposition [72.22610063489248]
顔画像は、基礎となる3次元幾何学と照明環境の介入の産物とみなす。
顔画像を3次元形状、共通テクスチャ、アイデンティティテクスチャ、周囲光、そして直接光に切り離すことで、悪魔は直接光とアイデンティティテクスチャの中に横たわる。
直接光と識別テクスチャを組み合わせた顔のディテールを,微妙な偽造パターンを検出する手がかりとして活用することを提案する。
論文 参考訳(メタデータ) (2020-11-19T09:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。