論文の概要: A novel approach for holographic 3D content generation without depth map
- arxiv url: http://arxiv.org/abs/2309.14967v1
- Date: Tue, 26 Sep 2023 14:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 13:22:08.952796
- Title: A novel approach for holographic 3D content generation without depth map
- Title(参考訳): 深度マップのないホログラフィック3次元コンテンツ生成のための新しいアプローチ
- Authors: Hakdong Kim, Minkyu Jee, Yurim Lee, Kyudam Choi, MinSung Yoon and
Cheongwon Kim
- Abstract要約: 与えられたRGB画像のみを用いてボリュームデジタルホログラムを合成する深層学習方式を提案する。
実験により,提案モデルにより生成された体積ホログラムは,競合モデルよりも精度が高いことを示した。
- 参考スコア(独自算出の注目度): 2.905273049932301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In preparation for observing holographic 3D content, acquiring a set of RGB
color and depth map images per scene is necessary to generate
computer-generated holograms (CGHs) when using the fast Fourier transform (FFT)
algorithm. However, in real-world situations, these paired formats of RGB color
and depth map images are not always fully available. We propose a deep
learning-based method to synthesize the volumetric digital holograms using only
the given RGB image, so that we can overcome environments where RGB color and
depth map images are partially provided. The proposed method uses only the
input of RGB image to estimate its depth map and then generate its CGH
sequentially. Through experiments, we demonstrate that the volumetric hologram
generated through our proposed model is more accurate than that of competitive
models, under the situation that only RGB color data can be provided.
- Abstract(参考訳): ホログラフィック3dコンテンツの観察には,高速フーリエ変換(fft)アルゴリズムを用いたコンピュータ生成ホログラム(cghs)を生成するためには,シーン毎のrgb色と深度マップ画像を取得する必要がある。
しかし、現実の状況では、RGB色と深度マップ画像の組み合わせは必ずしも完全には利用できない。
本稿では,RGB画像のみを用いてデジタルホログラムを合成し,RGB色と深度マップ画像が部分的に提供される環境を克服する深層学習手法を提案する。
提案手法では,RGB画像の入力のみを用いて深度マップを推定し,CGHを逐次生成する。
実験により,提案モデルで生成した体積ホログラムは,rgbカラーデータのみを提供できる状況下で,競合モデルよりも精度が高いことを実証した。
関連論文リスト
- Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - Depth-SIMS: Semi-Parametric Image and Depth Synthesis [23.700034054124604]
本稿では,RGBキャンバスを高品質なRGB画像に変換するインペイントネットワークと組み合わせて,適切に整列されたセグメンテーションマップとスパース深度マップを備えたRGBキャンバスを生成する手法を提案する。
構造アライメントと画質の面でのベンチマークを行い,SOTAよりもmIoUが3.7%増加し,競争力の高いFIDが得られた。
セマンティックセグメンテーションと深度補完のためのトレーニングデータとして生成されたデータの品質を分析し,本手法が他の手法よりも適していることを示す。
論文 参考訳(メタデータ) (2022-03-07T13:58:32Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - RGB-D Image Inpainting Using Generative Adversarial Network with a Late
Fusion Approach [14.06830052027649]
Diminished Realityは、ビデオ画像からオブジェクトを取り除き、行方不明の領域を可視画素で埋めることを目的とした技術だ。
生成逆数ネットワークを用いたRGB-D画像の描画手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T14:44:01Z) - Colored Point Cloud to Image Alignment [15.828285556159026]
そこで本研究では,カラーマッチングと幾何マッチングにより,色付き点雲を所定の色画像に整列する微分最適化手法を提案する。
カメラ画像と点雲の色との変換は、点雲の相対的な位置と一致した色とのマッチングを繰り返すことによって行う。
論文 参考訳(メタデータ) (2021-10-07T08:12:56Z) - Semantic-embedded Unsupervised Spectral Reconstruction from Single RGB
Images in the Wild [48.44194221801609]
この課題に対処するため、我々は、新しい軽量でエンドツーエンドの学習ベースのフレームワークを提案する。
我々は、効率的なカメラスペクトル応答関数推定により、検索されたHS画像から入力されたRGB画像と再投影されたRGB画像の差を徐々に広げる。
提案手法は最先端の教師なし手法よりも優れており,いくつかの設定下では最新の教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-15T05:19:44Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - NormalGAN: Learning Detailed 3D Human from a Single RGB-D Image [34.79657678041356]
本稿では,1枚のRGB-D画像から完全かつ詳細な3次元人間を再構築する高速対角学習法を提案する。
一般消費者のRGB-Dセンサーを使用すれば、NurmalGANは20fpsで完全な3D人間の再構築結果を生成することができる。
論文 参考訳(メタデータ) (2020-07-30T09:35:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。