論文の概要: Shape From Tracing: Towards Reconstructing 3D Object Geometry and SVBRDF
Material from Images via Differentiable Path Tracing
- arxiv url: http://arxiv.org/abs/2012.03939v1
- Date: Sun, 6 Dec 2020 18:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 04:13:09.149940
- Title: Shape From Tracing: Towards Reconstructing 3D Object Geometry and SVBRDF
Material from Images via Differentiable Path Tracing
- Title(参考訳): 3次元物体形状とSVBRDF材質の異なる経路追跡による画像からの再構成を目指して
- Authors: Purvi Goel, Loudon Cohen, James Guesman, Vikas Thamizharasan, James
Tompkin, Daniel Ritchie
- Abstract要約: 識別可能なパストレースは、複雑な外観効果を再現できるため、魅力的なフレームワークである。
本稿では,初期粗いメッシュとメッシュファセット単位の材料表現を改良するために,微分可能なレイトレーシングを利用する方法を示す。
また、制約のない環境下での現実世界の物体の初期再構成を洗練させる方法についても示す。
- 参考スコア(独自算出の注目度): 16.975014467319443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing object geometry and material from multiple views typically
requires optimization. Differentiable path tracing is an appealing framework as
it can reproduce complex appearance effects. However, it is difficult to use
due to high computational cost. In this paper, we explore how to use
differentiable ray tracing to refine an initial coarse mesh and per-mesh-facet
material representation. In simulation, we find that it is possible to
reconstruct fine geometric and material detail from low resolution input views,
allowing high-quality reconstructions in a few hours despite the expense of
path tracing. The reconstructions successfully disambiguate shading, shadow,
and global illumination effects such as diffuse interreflection from material
properties. We demonstrate the impact of different geometry initializations,
including space carving, multi-view stereo, and 3D neural networks. Finally,
with input captured using smartphone video and a consumer 360? camera for
lighting estimation, we also show how to refine initial reconstructions of
real-world objects in unconstrained environments.
- Abstract(参考訳): 複数のビューからオブジェクトジオメトリとマテリアルを再構築するには、通常最適化が必要です。
異なる経路追跡は複雑な外観効果を再現できるので魅力的なフレームワークである。
しかし,計算コストが高いため利用は困難である。
本稿では,初期粗いメッシュとmesh-facet材料表現を洗練するために,微分可能なレイトレーシングをどのように利用するかを検討する。
シミュレーションでは、低解像度の入力ビューから微細な幾何学的・物質的詳細を再構築することができ、パストレースを犠牲にして数時間で高品質な再構築が可能になる。
レコンストラクションは、材料特性からの拡散反射のような陰影、影、大域的な照明効果を曖昧化させることに成功した。
空間彫刻,マルチビューステレオ,3次元ニューラルネットワークなど,異なる幾何学的初期化の影響を実証する。
最後に、スマートフォンビデオと消費者向け360度カメラを使って入力をキャプチャする。
照明推定のためのカメラでは,制約のない環境下での現実世界の物体の初期再構成を改良する方法も示す。
関連論文リスト
- Triplet: Triangle Patchlet for Mesh-Based Inverse Rendering and Scene Parameters Approximation [0.0]
逆レンダリングは、光、幾何学、テクスチャ、材料を含むシーンの物理的特性を導き出そうとする。
メッシュは、多くのシミュレーションパイプラインで採用されている伝統的な表現として、いまだに逆レンダリングのラディアンスフィールドに限られた影響しか示していない。
本稿では,これらのパラメータを包括的に近似するメッシュベースの表現であるTriangle Patchlet (abbr. Triplet) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T09:59:11Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Multi-View Mesh Reconstruction with Neural Deferred Shading [0.8514420632209809]
最先端の手法では、ニューラルサーフェス表現とニューラルシェーディングの両方を用いる。
曲面を三角形メッシュとして表現し、三角形の描画とニューラルシェーディングを中心に、微分可能なレンダリングパイプラインを構築します。
パブリックな3次元再構成データセットを用いてランタイムの評価を行い、最適化において従来のベースラインの復元精度を上回りながら、従来のベースラインの再構築精度に適合できることを示す。
論文 参考訳(メタデータ) (2022-12-08T16:29:46Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - SNeS: Learning Probably Symmetric Neural Surfaces from Incomplete Data [77.53134858717728]
我々はニューラルレイディアンスフィールド(NeRF)のようなニューラルリコンストラクションとレンダリングの最近の進歩の強みの上に構築する。
我々は3次元形状と材料特性にソフト対称性の制約を適用し,光,アルベド色,反射率に分解された外観を有する。
保存されていない領域を高い忠実度で再構成し、高品質な新しいビュー画像を作成することができることを示す。
論文 参考訳(メタデータ) (2022-06-13T17:37:50Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。