論文の概要: Bi-directional Deformation for Parameterization of Neural Implicit
Surfaces
- arxiv url: http://arxiv.org/abs/2310.05524v1
- Date: Mon, 9 Oct 2023 08:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:50:44.414656
- Title: Bi-directional Deformation for Parameterization of Neural Implicit
Surfaces
- Title(参考訳): ニューラルインプリシト表面のパラメータ化のための双方向変形
- Authors: Baixin Xu and Jiangbei Hu and Fei Hou and Kwan-Yee Lin and Wayne Wu
and Chen Qian and Ying He
- Abstract要約: 神経暗示面を単純なパラメトリック領域にパラメータ化するための新しいニューラルネットワークを提案する。
提案手法は3次元オブジェクトとその選択したパラメトリック領域間の双方向の変形を計算する。
また、ビュー非依存の材料編集とビュー依存のシェーディング編集の両方を容易にし、簡易かつ効果的な放射分解技術を導入する。
- 参考スコア(独自算出の注目度): 37.48581817960415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing capabilities of neural rendering have increased the demand for
new techniques that enable the intuitive editing of 3D objects, particularly
when they are represented as neural implicit surfaces. In this paper, we
present a novel neural algorithm to parameterize neural implicit surfaces to
simple parametric domains, such as spheres, cubes or polycubes, where 3D
radiance field can be represented as a 2D field, thereby facilitating
visualization and various editing tasks. Technically, our method computes a
bi-directional deformation between 3D objects and their chosen parametric
domains, eliminating the need for any prior information. We adopt a forward
mapping of points on the zero level set of the 3D object to a parametric
domain, followed by a backward mapping through inverse deformation. To ensure
the map is bijective, we employ a cycle loss while optimizing the smoothness of
both deformations. Additionally, we leverage a Laplacian regularizer to
effectively control angle distortion and offer the flexibility to choose from a
range of parametric domains for managing area distortion. Designed for
compatibility, our framework integrates seamlessly with existing neural
rendering pipelines, taking multi-view images as input to reconstruct 3D
geometry and compute the corresponding texture map. We also introduce a simple
yet effective technique for intrinsic radiance decomposition, facilitating both
view-independent material editing and view-dependent shading editing. Our
method allows for the immediate rendering of edited textures through volume
rendering, without the need for network re-training. Moreover, our approach
supports the co-parameterization of multiple objects and enables texture
transfer between them. We demonstrate the effectiveness of our method on images
of human heads and man-made objects. We will make the source code publicly
available.
- Abstract(参考訳): ニューラルレンダリングの能力の増大は、3Dオブジェクトの直感的な編集を可能にする新しい技術、特にニューラルな暗黙の表面として表現される場合の需要を高めている。
本稿では,3次元放射場を2次元場として表現できる球,立方体,多角体などの単純なパラメトリック領域に対して,ニューラルネットワークの暗黙的表面をパラメータ化する新しいニューラルアルゴリズムを提案する。
技術的には、3dオブジェクトとその選択したパラメトリックドメイン間の双方向変形を計算し、事前情報の必要性をなくす。
我々は、3次元物体の零レベル集合上の点の前方マッピングをパラメトリック領域に適用し、次に逆変形による後方マッピングを行う。
写像が単射であることを保証するために、両方の変形の滑らかさを最適化しながらサイクルロスを用いる。
さらに,ラプラシアン正則化器を用いて角度歪みを効果的に制御し,領域歪みを管理するためのパラメトリック領域から選択する柔軟性を提供する。
このフレームワークは、既存のニューラルネットワークレンダリングパイプラインとシームレスに統合され、マルチビューイメージを入力として、3dジオメトリを再構築し、対応するテクスチャマップを計算します。
また,本質的放射光分解のための簡易かつ効果的な手法も導入し,ビュー非依存の素材編集とビュー依存のシェーディング編集を両立させる。
本手法は,ネットワーク再トレーニングを必要とせず,ボリュームレンダリングによる編集テクスチャの即時レンダリングを可能にする。
さらに,複数のオブジェクトの共パラメータ化をサポートし,それらの間のテクスチャ転送を可能にする。
本手法が人間の頭部と人工物の画像に与える影響を実証する。
ソースコードを公開します。
関連論文リスト
- ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Explicit3D: Graph Network with Spatial Inference for Single Image 3D
Object Detection [35.85544715234846]
本稿では,オブジェクトの幾何学的特徴と意味論的特徴に基づいて,Explicit3Dという動的スパースグラフパイプラインを提案する。
SUN RGB-Dデータセットによる実験結果から,我々のExplicit3Dは最先端技術よりも優れた性能バランスを実現することが示された。
論文 参考訳(メタデータ) (2023-02-13T16:19:54Z) - NeuPhysics: Editable Neural Geometry and Physics from Monocular Videos [82.74918564737591]
本稿では,モノクラーRGBビデオ入力のみから動的シーンの3次元形状と物理パラメータを学習する手法を提案する。
実験により,提案手法は,競合するニューラルフィールドアプローチと比較して,動的シーンのメッシュとビデオの再構成に優れることを示した。
論文 参考訳(メタデータ) (2022-10-22T04:57:55Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - Hybrid Approach for 3D Head Reconstruction: Using Neural Networks and
Visual Geometry [3.970492757288025]
本稿では,深層学習と幾何学的手法に基づくハイブリッド手法を用いて,複数の画像から3次元頭部を再構築する手法を提案する。
U-netアーキテクチャに基づくエンコーダデコーダネットワークを提案し、合成データのみを学習する。
論文 参考訳(メタデータ) (2021-04-28T11:31:35Z) - Neural Parts: Learning Expressive 3D Shape Abstractions with Invertible
Neural Networks [118.20778308823779]
Invertible Neural Network (INN) を用いてプリミティブを定義する新しい3次元プリミティブ表現を提案する。
私たちのモデルは、部品レベルの監督なしに3Dオブジェクトを意味的に一貫した部品配置に解析することを学びます。
論文 参考訳(メタデータ) (2021-03-18T17:59:31Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。