論文の概要: Central Angle Optimization for 360-degree Holographic 3D Content
- arxiv url: http://arxiv.org/abs/2311.05878v1
- Date: Fri, 10 Nov 2023 05:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 15:58:34.534181
- Title: Central Angle Optimization for 360-degree Holographic 3D Content
- Title(参考訳): 360度ホログラフィックコンテンツの中央角度最適化
- Authors: Hakdong Kim, Minsung Yoon, and Cheongwon Kim
- Abstract要約: 本研究では,ディープラーニングに基づく深度マップ推定において,最適な中心角度を求める手法を提案する。
本研究では,デジタルホログラフィックコンテンツの品質と中心角度の関係を実験的に検証し,議論する。
- 参考スコア(独自算出の注目度): 3.072340427031969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we propose a method to find an optimal central angle in deep
learning-based depth map estimation used to produce realistic holographic
content. The acquisition of RGB-depth map images as detailed as possible must
be performed to generate holograms of high quality, despite the high
computational cost. Therefore, we introduce a novel pipeline designed to
analyze various values of central angles between adjacent camera viewpoints
equidistant from the origin of an object-centered environment. Then we propose
the optimal central angle to generate high-quality holographic content. The
proposed pipeline comprises key steps such as comparing estimated depth maps
and comparing reconstructed CGHs (Computer-Generated Holograms) from RGB images
and estimated depth maps. We experimentally demonstrate and discuss the
relationship between the central angle and the quality of digital holographic
content.
- Abstract(参考訳): 本研究では,実際のホログラフィックコンテンツを作成するために,深層学習に基づく深層地図推定において最適な中央角を求める手法を提案する。
高い計算コストにもかかわらず、高画質のホログラムを生成するために、可能な限り詳細なRGB深度マップ画像の取得を行う必要がある。
そこで本研究では,オブジェクト中心環境の起源から,隣接するカメラ視点間の中心角度の様々な値を分析するための新しいパイプラインを提案する。
次に,高品質なホログラフィックコンテンツを生成するための最適中心角度を提案する。
提案するパイプラインは,推定深度マップの比較,rgb画像から再構成されたcgh(コンピュータ生成ホログラム)と推定深度マップの比較など,重要なステップを含む。
本研究では,デジタルホログラフィックコンテンツの品質と中心角度の関係を実験的に検証し,議論する。
関連論文リスト
- Adaptive Stereo Depth Estimation with Multi-Spectral Images Across All Lighting Conditions [58.88917836512819]
本稿では,立体深度推定を取り入れた新しいフレームワークを提案し,正確な幾何学的制約を強制する。
照明の劣化がステレオマッチングに与える影響を軽減するために,劣化マスキングを導入する。
提案手法は,Multi-Spectral Stereo(MS2)データセット上でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-11-06T03:30:46Z) - Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
ビット深度圧縮は、微妙な変化のある領域で均一な深度表現を生成し、詳細情報の回復を妨げる。
密集したランダムノイズは、シーンのグローバルな幾何学的構造を推定する精度を低下させる。
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - Refinement of Monocular Depth Maps via Multi-View Differentiable Rendering [4.717325308876748]
本稿では,複数の画像から一貫した詳細な深度マップを生成するための新しい手法を提案する。
我々は、位相的に完全だが計量的に不正確な深度マップを生成する単眼深度推定の進歩を活用する。
提案手法は,高密度で詳細で高品質な深度マップを作成でき,また屋内シナリオの挑戦も可能であり,最先端の深度復元手法よりも優れている。
論文 参考訳(メタデータ) (2024-10-04T18:50:28Z) - Depth-guided Texture Diffusion for Image Semantic Segmentation [47.46257473475867]
本稿では,この課題を効果的に解決するディープスガイド型テクスチャ拡散手法を提案する。
本手法は,テクスチャ画像を作成するために,エッジやテクスチャから低レベル特徴を抽出する。
この拡張深度マップを元のRGB画像と結合した特徴埋め込みに統合することにより,深度マップと画像との相違を効果的に橋渡しする。
論文 参考訳(メタデータ) (2024-08-17T04:55:03Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Depth-SIMS: Semi-Parametric Image and Depth Synthesis [23.700034054124604]
本稿では,RGBキャンバスを高品質なRGB画像に変換するインペイントネットワークと組み合わせて,適切に整列されたセグメンテーションマップとスパース深度マップを備えたRGBキャンバスを生成する手法を提案する。
構造アライメントと画質の面でのベンチマークを行い,SOTAよりもmIoUが3.7%増加し,競争力の高いFIDが得られた。
セマンティックセグメンテーションと深度補完のためのトレーニングデータとして生成されたデータの品質を分析し,本手法が他の手法よりも適していることを示す。
論文 参考訳(メタデータ) (2022-03-07T13:58:32Z) - Dense Depth Estimation from Multiple 360-degree Images Using Virtual
Depth [4.984601297028257]
提案したパイプラインは、360度画像の半径歪みを補償する球面カメラモデルを活用する。
仮想深度の設定とフォトニック再射誤差の最小化による効果的な深度推定法を提案する。
実験により,提案したパイプラインは,現在最先端の深度推定法と比較して推定精度が向上することを確認した。
論文 参考訳(メタデータ) (2021-12-30T05:27:28Z) - Deep Learning-based High-precision Depth Map Estimation from Missing
Viewpoints for 360 Degree Digital Holography [2.174116094271494]
本研究では, 欠落した視点から高精度な深度マップを抽出する畳み込みニューラルネットワークモデルを提案する。
提案したHDD Netモデルでは,損失関数として深度マップ推定の性能向上のためにMSEを用いている。
ホログラフィック3D画像シーンを直接再構成することにより, 推定深度マップの品質を実証する実験結果を示す。
論文 参考訳(メタデータ) (2021-03-09T00:38:23Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - A Method of Generating Measurable Panoramic Image for Indoor Mobile
Measurement System [36.47697710426005]
本稿では,深度情報を用いた高画質パノラマ画像を生成する手法を設計する。
画像データと3D点の融合については,パラメータ自己適応フレームワークを用いて2次元深度マップを作成する。
画像縫合にはグラフカット法を用いて重ね合わせ領域の最適シームラインを探索する。
論文 参考訳(メタデータ) (2020-10-27T13:12:02Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。