論文の概要: DeepShadow: Neural Shape from Shadow
- arxiv url: http://arxiv.org/abs/2203.15065v1
- Date: Mon, 28 Mar 2022 20:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 14:01:46.603795
- Title: DeepShadow: Neural Shape from Shadow
- Title(参考訳): DeepShadow: シャドーからの神経形
- Authors: Asaf Karnieli, Ohad Fried, Yacov Hel-Or
- Abstract要約: DeepShadowは、光度ステレオシャドウマップから深度マップと表面正常を復元するワンショット方式である。
自己および鋳型影が3次元再構成を妨害するだけでなく、学習信号として単独で使用できることを示す。
提案手法は,ニューラルネットワークを用いて影から3次元形状を再構成する最初の方法である。
- 参考スコア(独自算出の注目度): 12.283891012446647
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents DeepShadow, a one-shot method for recovering the depth
map and surface normals from photometric stereo shadow maps. Previous works
that try to recover the surface normals from photometric stereo images treat
cast shadows as a disturbance. We show that the self and cast shadows not only
do not disturb 3D reconstruction, but can be used alone, as a strong learning
signal, to recover the depth map and surface normals. We demonstrate that 3D
reconstruction from shadows can even outperform shape-from-shading in certain
cases. To the best of our knowledge, our method is the first to reconstruct 3D
shape-from-shadows using neural networks. The method does not require any
pre-training or expensive labeled data, and is optimized during inference time.
- Abstract(参考訳): 本稿では,フォトメトリックステレオシャドーマップから深度マップと表面正規分布を復元するワンショット手法であるdeepshadowを提案する。
光度ステレオ画像から表面の正常さを回復しようとする以前の研究は、キャストシャドウを外乱として扱う。
本研究は, 自己および鋳型影が3次元再構成を妨害するだけでなく, 深度マップや表面の正常を回復するために, 強力な学習信号として単独で使用できることを示す。
影からの3次元再構成は、特定の場合においてシェーディングの形状よりも優れることを示す。
我々の知る限りでは、ニューラルネットワークを用いて影から3次元形状を再構築する最初の方法である。
この方法は事前トレーニングや高価なラベル付きデータを必要とせず、推論時に最適化される。
関連論文リスト
- A Perceptual Shape Loss for Monocular 3D Face Reconstruction [13.527078921914985]
本研究では,3次元顔再構成の質を人間がどう認識するかに着想を得た,単眼顔撮影のための新しい損失関数を提案する。
我々の損失は、入力顔画像と幾何推定のシェードレンダリングを採る判別器型ニューラルネットワークとして実装されている。
我々は、新しい知覚的形状損失が、単眼の3次元顔最適化とディープニューラルネットワーク回帰の伝統的なエネルギー用語とどのように組み合わせられるかを示す。
論文 参考訳(メタデータ) (2023-10-30T14:39:11Z) - S$^3$-NeRF: Neural Reflectance Field from Shading and Shadow under a
Single Viewpoint [22.42916940712357]
本手法は,シーンの3次元形状とBRDFを表現するために,ニューラルリフレクタンス場を学習する。
本手法は,一視点画像からシーンの可視部分と可視部分の両方を含む3次元形状を復元することができる。
新規ビュー合成やリライトといったアプリケーションをサポートする。
論文 参考訳(メタデータ) (2022-10-17T11:01:52Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - SNeS: Learning Probably Symmetric Neural Surfaces from Incomplete Data [77.53134858717728]
我々はニューラルレイディアンスフィールド(NeRF)のようなニューラルリコンストラクションとレンダリングの最近の進歩の強みの上に構築する。
我々は3次元形状と材料特性にソフト対称性の制約を適用し,光,アルベド色,反射率に分解された外観を有する。
保存されていない領域を高い忠実度で再構成し、高品質な新しいビュー画像を作成することができることを示す。
論文 参考訳(メタデータ) (2022-06-13T17:37:50Z) - OutCast: Outdoor Single-image Relighting with Cast Shadows [19.354412901507175]
本研究では,屋外画像のリライティング手法を提案する。
本手法は,1枚の画像から任意の新しい照明方向の鋳造影を予測することに焦点を当てる。
提案手法は,1つの画像のみを入力として,初めて最先端のリライト結果を実現する。
論文 参考訳(メタデータ) (2022-04-20T09:24:14Z) - Towards Learning Neural Representations from Shadows [11.60149896896201]
本稿では,シーンに存在する影のみから,ニューラルシーンの表現を学習する手法を提案する。
我々のフレームワークは高度に一般化可能であり、既存の3D再構成技術と協調して動作する。
論文 参考訳(メタデータ) (2022-03-29T23:13:41Z) - Neural Reflectance for Shape Recovery with Shadow Handling [88.67603644930466]
本論文は,非ランベルト的かつ空間的に変化する表面材料を用いて,シーンの形状を復元することを目的とする。
本研究では, 未知の3次元形状と未知の面点の両方をパラメータ化するために, 座標に基づく深部反射率(多層パーセプトロン)を提案する。
このネットワークは、観測された光度差と表面上の影を利用して、表面形状と一般的な非ランベルト反射率の両方を回復することができる。
論文 参考訳(メタデータ) (2022-03-24T07:57:20Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。