論文の概要: Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images
- arxiv url: http://arxiv.org/abs/2204.09866v1
- Date: Thu, 21 Apr 2022 03:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-23 00:59:38.090236
- Title: Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images
- Title(参考訳): Pixel2Mesh++: マルチビュー画像からの3Dメッシュ生成とリファインメント
- Authors: Chao Wen, Yinda Zhang, Chenjie Cao, Zhuwen Li, Xiangyang Xue, Yanwei
Fu
- Abstract要約: カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
- 参考スコア(独自算出の注目度): 82.32776379815712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of shape generation in 3D mesh representation from a
small number of color images with or without camera poses. While many previous
works learn to hallucinate the shape directly from priors, we adopt to further
improve the shape quality by leveraging cross-view information with a graph
convolution network. Instead of building a direct mapping function from images
to 3D shape, our model learns to predict series of deformations to improve a
coarse shape iteratively. Inspired by traditional multiple view geometry
methods, our network samples nearby area around the initial mesh's vertex
locations and reasons an optimal deformation using perceptual feature
statistics built from multiple input images. Extensive experiments show that
our model produces accurate 3D shapes that are not only visually plausible from
the input perspectives, but also well aligned to arbitrary viewpoints. With the
help of physically driven architecture, our model also exhibits generalization
capability across different semantic categories, and the number of input
images. Model analysis experiments show that our model is robust to the quality
of the initial mesh and the error of camera pose, and can be combined with a
differentiable renderer for test-time optimization.
- Abstract(参考訳): カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
先行研究の多くは,先行研究から形状の表現を学んでいるが,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することで,形状の質をさらに向上させる。
画像から3d形状への直接マッピング機能を構築する代わりに、モデルは一連の変形を予測して粗い形状を反復的に改善する。
従来のマルチビュー幾何法にインスパイアされた我々のネットワークは、初期メッシュの頂点位置付近のエリアをサンプリングし、複数の入力画像から構築された知覚的特徴統計を用いて最適な変形を導く。
広範な実験により,入力視点から視覚的に理解できるだけでなく,任意の視点によく適合した正確な3次元形状が得られた。
物理的に駆動されるアーキテクチャの助けを借りて,様々な意味カテゴリー,入力画像数を一般化する能力も提示する。
モデル解析実験により、我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分可能なレンダラーと組み合わせることができることが示された。
関連論文リスト
- Diffusion Models are Geometry Critics: Single Image 3D Editing Using Pre-Trained Diffusion Priors [24.478875248825563]
単一画像の3次元操作を可能にする新しい画像編集手法を提案する。
本手法は,テキスト・イメージ・ペアの広い範囲で訓練された強力な画像拡散モデルを直接活用する。
提案手法では,高画質な3D画像編集が可能で,視点変換が大きく,外観や形状の整合性も高い。
論文 参考訳(メタデータ) (2024-03-18T06:18:59Z) - 3DMiner: Discovering Shapes from Large-Scale Unannotated Image Datasets [34.610546020800236]
3DMinerは、挑戦的なデータセットから3D形状をマイニングするためのパイプラインである。
本手法は最先端の教師なし3次元再構成技術よりもはるかに優れた結果が得られる。
LAION-5Bデータセットから得られる画像の形状を再構成することにより,3DMinerを組込みデータに適用する方法を示す。
論文 参考訳(メタデータ) (2023-10-29T23:08:19Z) - Explorable Mesh Deformation Subspaces from Unstructured Generative
Models [53.23510438769862]
3次元形状の深い生成モデルは、しばしば潜在的な変動を探索するために使用できる連続的な潜伏空間を特徴付ける。
本研究では,手軽に探索可能な2次元探索空間から事前学習された生成モデルのサブ空間へのマッピングを構築することで,与えられたランドマーク形状の集合間のバリエーションを探索する手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:53:57Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Geo-SIC: Learning Deformable Geometric Shapes in Deep Image Classifiers [8.781861951759948]
本稿では,画像分類の性能向上のために,変形空間における変形可能な形状を学習する最初のディープラーニングモデルGeo-SICを提案する。
画像空間と潜時形状空間の両方から特徴を同時に導出する,クラス内変動の大きい新設計のフレームワークを提案する。
幾何学的形状表現の教師なし学習を取り入れた強化型分類網を開発した。
論文 参考訳(メタデータ) (2022-10-25T01:55:17Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。