論文の概要: Shape and Material Capture at Home
- arxiv url: http://arxiv.org/abs/2104.06397v1
- Date: Tue, 13 Apr 2021 17:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 15:07:46.465878
- Title: Shape and Material Capture at Home
- Title(参考訳): 家庭における形状と材料捕獲
- Authors: Daniel Lichy, Jiaye Wu, Soumyadip Sengupta, David W. Jacobs
- Abstract要約: 本研究では,ユーザが物体の周りを回ってフラッシュライトで照らし,ほんの数枚の画像だけをキャプチャする簡易なデータキャプチャ手法を提案する。
本手法は,特にスペキュラーハイライトやキャストシャドウの領域において,より高精度な表面ノーマルおよびアルベドが得られることを示す。
- 参考スコア(独自算出の注目度): 20.010358023954346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a technique for estimating the geometry and
reflectance of objects using only a camera, flashlight, and optionally a
tripod. We propose a simple data capture technique in which the user goes
around the object, illuminating it with a flashlight and capturing only a few
images. Our main technical contribution is the introduction of a recursive
neural architecture, which can predict geometry and reflectance at 2^{k}*2^{k}
resolution given an input image at 2^{k}*2^{k} and estimated geometry and
reflectance from the previous step at 2^{k-1}*2^{k-1}. This recursive
architecture, termed RecNet, is trained with 256x256 resolution but can easily
operate on 1024x1024 images during inference. We show that our method produces
more accurate surface normal and albedo, especially in regions of specular
highlights and cast shadows, compared to previous approaches, given three or
fewer input images. For the video and code, please visit the project website
http://dlichy.github.io/ShapeAndMaterialAtHome/.
- Abstract(参考訳): 本稿では,カメラ,懐中電灯,オプションで三脚のみを用いて物体の形状と反射率を推定する手法を提案する。
本研究では,ユーザが物体の周りを回ってフラッシュライトで照らし,ほんの数枚の画像だけをキャプチャする簡易なデータキャプチャ手法を提案する。
我々の主な技術的貢献は、2^{k}*2^{k}の入力画像と2^{k-1}の前のステップから推定された幾何と反射率を2^{k}*2^{k-1}の解像度で予測できる再帰的ニューラルアーキテクチャの導入である。
この再帰的アーキテクチャはrecnetと呼ばれ、256x256の解像度でトレーニングされるが、推論中に1024x1024の画像を容易に操作できる。
提案手法は,3つ以上の入力画像が与えられた場合と比較して,特にスペキュラハイライトやキャストシャドーの領域において,より正確な表面正規化とアルベドを生成する。
ビデオとコードについては、プロジェクトのwebサイトhttp://dlichy.github.io/shapeandmaterialathome/をご覧ください。
関連論文リスト
- IllumiNeRF: 3D Relighting Without Inverse Rendering [25.642960820693947]
対象の環境光と推定対象形状を条件とした画像拡散モデルを用いて,各入力画像をリライトする方法を示す。
ニューラル・レージアンス・フィールド (NeRF) をこれらの信頼された画像で再構成し, 対象光の下で新しいビューを描画する。
この戦略は驚くほど競争力があり、複数のリライトベンチマークで最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2024-06-10T17:59:59Z) - 3D generation on ImageNet [76.0440752186121]
3DGP: トレーニングデータに関するより一般的な仮定を持つ3D合成フレームワークを開発した。
私たちのモデルは3つの新しいアイデアに基づいている。
SDIP Dogs 256x256, SDIP Elephants 256x256, LSUN Horses 256x256, ImageNet 256x256の4つのデータセットについて検討を行った。
論文 参考訳(メタデータ) (2023-03-02T17:06:57Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - S$^3$-NeRF: Neural Reflectance Field from Shading and Shadow under a
Single Viewpoint [22.42916940712357]
本手法は,シーンの3次元形状とBRDFを表現するために,ニューラルリフレクタンス場を学習する。
本手法は,一視点画像からシーンの可視部分と可視部分の両方を含む3次元形状を復元することができる。
新規ビュー合成やリライトといったアプリケーションをサポートする。
論文 参考訳(メタデータ) (2022-10-17T11:01:52Z) - PS-NeRF: Neural Inverse Rendering for Multi-view Photometric Stereo [22.42916940712357]
本稿では,暗黙表現に基づくMVPSのニューラルネットワーク逆レンダリング手法を提案する。
本手法は既存のMVPSやニューラルレンダリング法よりもはるかに正確な形状再構成を実現する。
論文 参考訳(メタデータ) (2022-07-23T03:55:18Z) - VirtualPose: Learning Generalizable 3D Human Pose Models from Virtual
Data [69.64723752430244]
このタスクに特有の隠れた「フリーランチ」を活用するための2段階学習フレームワークであるVirtualPoseを紹介する。
1段目は画像を抽象幾何学表現(AGR)に変換し、2段目はそれらを3Dポーズにマッピングする。
1)第1段は多様な2次元データセットでトレーニングし、限られた外観への過度な適合のリスクを軽減し、2)多数の仮想カメラとポーズから合成された多様なAGRでトレーニングすることができる。
論文 参考訳(メタデータ) (2022-07-20T14:47:28Z) - OutCast: Outdoor Single-image Relighting with Cast Shadows [19.354412901507175]
本研究では,屋外画像のリライティング手法を提案する。
本手法は,1枚の画像から任意の新しい照明方向の鋳造影を予測することに焦点を当てる。
提案手法は,1つの画像のみを入力として,初めて最先端のリライト結果を実現する。
論文 参考訳(メタデータ) (2022-04-20T09:24:14Z) - Perspective Flow Aggregation for Data-Limited 6D Object Pose Estimation [121.02948087956955]
宇宙や水中の深層などのいくつかのアプリケーションでは、実際の画像を取得することは、注釈のないものであっても、事実上不可能である。
本稿では,合成画像のみに限定してトレーニングできる手法を提案する。
これは、アノテートされた実画像を必要としない場合、トレーニングのためにアノテートされた実画像を必要とするメソッドと同等に動作し、20個の実画像を使用する場合、かなりパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-03-18T10:20:21Z) - Self-supervised Outdoor Scene Relighting [92.20785788740407]
本稿では, 自己指導型リライティング手法を提案する。
当社のアプローチは,ユーザの監督なしにインターネットから収集した画像のコーパスのみに基づいて訓練されている。
以上の結果から,写実的かつ物理的に妥当な結果を生成できる技術が,見えない場面に一般化できることが示唆された。
論文 参考訳(メタデータ) (2021-07-07T09:46:19Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。