論文の概要: Single-view 3D reconstruction via inverse procedural modeling
- arxiv url: http://arxiv.org/abs/2310.13373v1
- Date: Fri, 20 Oct 2023 09:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 23:32:52.058495
- Title: Single-view 3D reconstruction via inverse procedural modeling
- Title(参考訳): 逆手続きモデルによる単眼3次元再構成
- Authors: Albert Garifullin, Nikolay Maiorov, Vladimir Frolov
- Abstract要約: 本稿では,逆手続きモデルによる3次元再構成手法を提案し,その2つのバリエーションについて検討する。
木モデル、複雑なオブジェクト、そして既存のほとんどのメソッドが扱えない再構築に関する研究の結果を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an approach to 3D reconstruction via inverse procedural modeling
and investigate two variants of this approach. The first option consists in the
fitting set of input parameters using a genetic algorithm. We demonstrate the
results of our work on tree models, complex objects, with the reconstruction of
which most existing methods cannot handle. The second option allows us to
significantly improve the precision by using gradients within memetic
algorithm, differentiable rendering and also differentiable procedural
generators. In our work we see 2 main contributions. First, we propose a method
to join differentiable rendering and inverse procedural modeling. This gives us
an opportunity to reconstruct 3D model more accurately than existing approaches
when a small number of input images are available (even for single image).
Second, we join both differentiable and non-differentiable procedural
generators in a single framework which allow us to apply inverse procedural
modeling to fairly complex generators: when gradient is available,
reconstructions is precise, when gradient is not available, reconstruction is
approximate, but always high quality without visual artifacts.
- Abstract(参考訳): 本稿では,逆手続きモデルによる3次元再構成手法を提案し,その2つのバリエーションについて検討する。
最初の選択肢は、遺伝的アルゴリズムを用いた入力パラメータの適合セットである。
我々は、木モデル、複雑なオブジェクト、ほとんどの既存メソッドが処理できない再構成に関する作業の結果を実証する。
第2の選択肢は、メメティックアルゴリズム内の勾配、微分可能なレンダリング、および微分可能な手続き生成器を使用することで、精度を大幅に向上させることができる。
私たちの仕事では、主な貢献が2つあります。
まず,微分可能レンダリングと逆手続きモデリングを結合する手法を提案する。
これにより、少数の入力画像が利用可能な場合(単一画像であっても)、既存のアプローチよりも正確に3Dモデルを再構築する機会が得られる。
第二に、微分可能と非微分可能の両方の手続き生成器を単一のフレームワークで結合することで、かなり複雑な生成器に逆手続きモデリングを適用することができる。
関連論文リスト
- OFER: Occluded Face Expression Reconstruction [16.06622406877353]
OFERは,多彩で表現力に富んだ3次元顔を生成することのできる,単一画像の3次元顔再構成のための新しいアプローチである。
本稿では,予測された形状精度スコアに基づいて形状拡散ネットワークの出力をソートし,最適マッチングを選択する新しいランキング機構を提案する。
論文 参考訳(メタデータ) (2024-10-29T00:21:26Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - 3D Magic Mirror: Clothing Reconstruction from a Single Image via a
Causal Perspective [96.65476492200648]
本研究は, 自己監督型3D衣料の再構築手法について検討することを目的とする。
1枚の2D画像から人間の衣服の形状やテクスチャを復元する。
論文 参考訳(メタデータ) (2022-04-27T17:46:55Z) - ERF: Explicit Radiance Field Reconstruction From Scratch [12.254150867994163]
センサのポーズとキャリブレーションでシーンの一連の画像を処理し,フォトリアルなデジタルモデルを推定する,新しい高密度3次元再構成手法を提案する。
重要な革新の1つは、根底にある体積表現が完全に明示的であることである。
我々は,本手法が汎用的かつ実用的であることを示し,撮影に高度に制御された実験室の設置は必要とせず,多種多様な物体でシーンを再構築することができることを示した。
論文 参考訳(メタデータ) (2022-02-28T19:37:12Z) - H3D-Net: Few-Shot High-Fidelity 3D Head Reconstruction [27.66008315400462]
表面形状を暗黙的に表現する最近の学習手法は、多視点3次元再構成の問題において顕著な結果を示している。
我々はこれらの制限を,数発のフル3次元頭部再構成の特定の問題に対処する。
暗黙の表現を用いて,数千個の不完全な生スキャンから3次元頭部形状モデルを学習する。
論文 参考訳(メタデータ) (2021-07-26T23:04:18Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。