論文の概要: A Latent Implicit 3D Shape Model for Multiple Levels of Detail
- arxiv url: http://arxiv.org/abs/2409.06231v1
- Date: Tue, 10 Sep 2024 05:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 19:00:01.252038
- Title: A Latent Implicit 3D Shape Model for Multiple Levels of Detail
- Title(参考訳): 複数の詳細レベルに対する潜入型3次元形状モデル
- Authors: Benoit Guillard, Marc Habermann, Christian Theobalt, Pascal Fua,
- Abstract要約: 入射神経表現は、形状固有の潜伏符号と3D座標を対応する符号距離(SDF)の値にマッピングする。
このアプローチは、単一のレベルの詳細しか提供しません。
そこで我々は,複数の詳細レベルを実現し,各レベルで滑らかな表面を保証できる新しい形状モデリング手法を提案する。
- 参考スコア(独自算出の注目度): 95.56814217356667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representations map a shape-specific latent code and a 3D coordinate to its corresponding signed distance (SDF) value. However, this approach only offers a single level of detail. Emulating low levels of detail can be achieved with shallow networks, but the generated shapes are typically not smooth. Alternatively, some network designs offer multiple levels of detail, but are limited to overfitting a single object. To address this, we propose a new shape modeling approach, which enables multiple levels of detail and guarantees a smooth surface at each level. At the core, we introduce a novel latent conditioning for a multiscale and bandwith-limited neural architecture. This results in a deep parameterization of multiple shapes, where early layers quickly output approximated SDF values. This allows to balance speed and accuracy within a single network and enhance the efficiency of implicit scene rendering. We demonstrate that by limiting the bandwidth of the network, we can maintain smooth surfaces across all levels of detail. At finer levels, reconstruction quality is on par with the state of the art models, which are limited to a single level of detail.
- Abstract(参考訳): 入射神経表現は、形状固有の潜伏符号と3D座標を対応する符号距離(SDF)の値にマッピングする。
しかし、このアプローチは1つのレベルの詳細しか提供しません。
浅いネットワークで低レベルのディテールをエミュレートすることは可能だが、生成された形状は概して滑らかではない。
あるいは、いくつかのネットワーク設計は、複数の詳細レベルを提供するが、単一のオブジェクトに過度に適合することに限定されている。
そこで本研究では,複数レベルのディテールを実現し,各レベルのスムーズな表面を保証できる新しい形状モデリング手法を提案する。
その中核として,マルチスケールで帯域制限のあるニューラルアーキテクチャのための新しい潜在条件を導入する。
これにより、複数の形状の深いパラメータ化が行われ、初期層は近似SDF値を素早く出力する。
これにより、単一のネットワーク内の速度と精度のバランスを保ち、暗黙のシーンレンダリングの効率を高めることができる。
ネットワークの帯域幅を制限することで、すべての詳細レベルにわたってスムーズな表面を維持することができることを示す。
より細かいレベルでは、レコンストラクションの品質は、単一の詳細レベルに限定される最先端のモデルと同等である。
関連論文リスト
- GeoGen: Geometry-Aware Generative Modeling via Signed Distance Functions [22.077366472693395]
単一ビューコレクションから3次元形状と画像を合成するための新しい生成手法を提案する。
ニューラルラディアンス場を用いたボリュームレンダリングを用いることで、生成した幾何学はノイズが多く、制約がないという重要な制限を継承する。
エンド・ツー・エンドで訓練された新しいSDFベースの3D生成モデルであるGeoGenを提案する。
論文 参考訳(メタデータ) (2024-06-06T17:00:10Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Representing 3D Shapes with Probabilistic Directed Distance Fields [7.528141488548544]
暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
論文 参考訳(メタデータ) (2021-12-10T02:15:47Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - DECOR-GAN: 3D Shape Detailization by Conditional Refinement [50.8801457082181]
本稿では,3次元形状詳細化のための深層生成ネットワークについて紹介する。
提案手法は, 粗い形状を様々な形状の細かな形状に洗練することができることを示す。
論文 参考訳(メタデータ) (2020-12-16T18:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。