論文の概要: MeshMVS: Multi-View Stereo Guided Mesh Reconstruction
- arxiv url: http://arxiv.org/abs/2010.08682v3
- Date: Sun, 11 Apr 2021 16:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 11:37:35.511109
- Title: MeshMVS: Multi-View Stereo Guided Mesh Reconstruction
- Title(参考訳): meshmvs: 多視点ステレオ誘導メッシュ再構成
- Authors: Rakesh Shrestha, Zhiwen Fan, Qingkun Su, Zuozhuo Dai, Siyu Zhu, Ping
Tan
- Abstract要約: 深層学習に基づく3次元形状生成法は、一般的に、カラー画像から抽出した潜時特徴を利用して、オブジェクトの意味を符号化する。
本稿では,多視点ステレオの中間深度表現の特徴を利用して,幾何情報を明確に取り入れたマルチビューメッシュ生成手法を提案する。
その結果,シェーファー距離が34%減少し,F1スコアが14%増加し,最先端のマルチビュー形状生成法よりも優れた結果が得られた。
- 参考スコア(独自算出の注目度): 35.763452474239955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based 3D shape generation methods generally utilize latent
features extracted from color images to encode the semantics of objects and
guide the shape generation process. These color image semantics only implicitly
encode 3D information, potentially limiting the accuracy of the generated
shapes. In this paper we propose a multi-view mesh generation method which
incorporates geometry information explicitly by using the features from
intermediate depth representations of multi-view stereo and regularizing the 3D
shapes against these depth images. First, our system predicts a coarse 3D
volume from the color images by probabilistically merging voxel occupancy grids
from the prediction of individual views. Then the depth images from multi-view
stereo along with the rendered depth images of the coarse shape are used as a
contrastive input whose features guide the refinement of the coarse shape
through a series of graph convolution networks. Notably, we achieve superior
results than state-of-the-art multi-view shape generation methods with 34%
decrease in Chamfer distance to ground truth and 14% increase in F1-score on
ShapeNet dataset.Our source code is available at https://git.io/Jmalg
- Abstract(参考訳): 深層学習に基づく3次元形状生成法では,カラー画像から抽出した潜伏特徴を用いて物体の意味を符号化し,形状生成過程を導く。
これらのカラーイメージセマンティクスは、3d情報を暗黙的にエンコードするだけであり、生成された形状の精度を制限する可能性がある。
本稿では,多視点ステレオの中間深度表現から特徴を抽出し,これらの深度画像に対して3次元形状を正則化することにより,形状情報を明示的に組み込むマルチビューメッシュ生成手法を提案する。
まず,カラー画像から粗い3次元体積を予測し,個々のビューの予測からボクセル占有格子を確率的に融合させる。
次に、粗い形状のレンダリングされた奥行き画像とともに、多視点ステレオからの奥行き画像を用いて、一連のグラフ畳み込みネットワークを介して粗い形状の洗練を導く特徴を有する対比入力とする。
注目すべきは、シェープネットデータセットのシャムファー距離が34%減少し、f1-scoreが14%増加した、最先端のマルチビュー形状生成法よりも優れた結果が得られることだ。
関連論文リスト
- MVD-Fusion: Single-view 3D via Depth-consistent Multi-view Generation [54.27399121779011]
本稿では,多視点RGB-D画像の生成モデルを用いて,単視点3次元推論を行うMVD-Fusionを提案する。
提案手法は,蒸留に基づく3D推論や先行多視点生成手法など,最近の最先端技術と比較して,より正確な合成を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-04T17:59:57Z) - FlexiDreamer: Single Image-to-3D Generation with FlexiCubes [20.871847154995688]
FlexiDreamerは、マルチビュー生成イメージから高品質なメッシュを直接再構築する新しいフレームワークである。
提案手法では,1つの画像から3次元の下流タスクにおいて,約1分で高忠実度3Dメッシュを生成することができる。
論文 参考訳(メタデータ) (2024-04-01T08:20:18Z) - Efficient Textured Mesh Recovery from Multiple Views with Differentiable
Rendering [8.264851594332677]
マルチビュー画像からテクスチャメッシュを復元する手法を提案する。
学習ベース多視点ステレオアルゴリズムにより予測される深度との差を最小化することにより形状形状を最適化する。
形状や色に対する暗黙的なニューラル表現とは対照的に,物体の光と反射を共同で推定する物理ベース逆レンダリング方式を導入する。
論文 参考訳(メタデータ) (2022-05-25T03:33:55Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。