論文の概要: SDF-StyleGAN: Implicit SDF-Based StyleGAN for 3D Shape Generation
- arxiv url: http://arxiv.org/abs/2206.12055v1
- Date: Fri, 24 Jun 2022 03:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 13:25:59.037479
- Title: SDF-StyleGAN: Implicit SDF-Based StyleGAN for 3D Shape Generation
- Title(参考訳): SDF-StyleGAN:3次元形状生成のためのSDF型スタイルGAN
- Authors: Xin-Yang Zheng and Yang Liu and Peng-Shuai Wang and Xin Tong
- Abstract要約: SDF-StyleGANと呼ばれる3次元形状生成のためのStyleGAN2に基づくディープラーニング手法を提案する。
StyleGAN2を3次元に拡張し、暗黙の符号距離関数(SDF)を3次元形状表現として利用する。
実・偽のSDF値と勾配を区別する2つの新しいグローバルおよびローカル形状判別器を導入する。
- 参考スコア(独自算出の注目度): 19.21267260770415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a StyleGAN2-based deep learning approach for 3D shape generation,
called SDF-StyleGAN, with the aim of reducing visual and geometric
dissimilarity between generated shapes and a shape collection. We extend
StyleGAN2 to 3D generation and utilize the implicit signed distance function
(SDF) as the 3D shape representation, and introduce two novel global and local
shape discriminators that distinguish real and fake SDF values and gradients to
significantly improve shape geometry and visual quality. We further complement
the evaluation metrics of 3D generative models with the shading-image-based
Fr\'echet inception distance (FID) scores to better assess visual quality and
shape distribution of the generated shapes. Experiments on shape generation
demonstrate the superior performance of SDF-StyleGAN over the state-of-the-art.
We further demonstrate the efficacy of SDF-StyleGAN in various tasks based on
GAN inversion, including shape reconstruction, shape completion from partial
point clouds, single-view image-based shape generation, and shape style
editing. Extensive ablation studies justify the efficacy of our framework
design. Our code and trained models are available at
https://github.com/Zhengxinyang/SDF-StyleGAN.
- Abstract(参考訳): 本稿では,SDF-StyleGANと呼ばれる3次元形状生成のためのStyleGAN2に基づくディープラーニング手法を提案する。
StyleGAN2を3次元に拡張し、暗黙符号距離関数(SDF)を3次元形状表現として利用し、実と偽のSDF値と勾配を区別する2つの新しいグローバルおよび局所形状判別器を導入し、形状形状と視覚的品質を著しく改善する。
さらに,影画像に基づくFr'echet開始距離(FID)スコアを用いて3次元生成モデルの評価指標を補完し,生成した形状の視覚的品質と形状分布をよりよく評価する。
形状生成実験は, SDF-StyleGANの最先端性能を示す。
さらに, 形状再構成, 部分点雲からの形状完了, 単視点画像ベース形状生成, 形状スタイル編集など, GAN のインバージョンに基づく各種タスクにおける SDF-StyleGAN の有効性を示す。
広範なアブレーション研究は,フレームワーク設計の有効性を正当化する。
私たちのコードとトレーニングされたモデルは、https://github.com/zhengxinyang/sdf-styleganで利用可能です。
関連論文リスト
- NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Mosaic-SDF for 3D Generative Models [41.4585856558786]
拡散モデルや流れモデルを3次元形状で訓練する場合、重要な設計選択は形状表現である。
与えられた形状の符号距離関数 (Signed Distance Function, SDF) を近似した単純な3次元形状表現であるMosaic-SDFを紹介する。
本稿では,M-SDF表現の有効性を3次元生成フローモデルのトレーニングに用いた。
論文 参考訳(メタデータ) (2023-12-14T18:52:52Z) - Locally Attentional SDF Diffusion for Controllable 3D Shape Generation [24.83724829092307]
本研究では,2次元スケッチ画像入力を用いて3次元形状をモデル化する拡散型3次元生成フレームワークを提案する。
本手法は, 2段階拡散モデルを用いて構築され, その第1段階である占有拡散は, 低分解能占有場を生成し, 形状シェルを近似することを目的としている。
SDF拡散と呼ばれる第2段階は、第1段階によって決定された占有ボクセル内の高分解能符号距離場を合成し、微細な幾何を抽出する。
論文 参考訳(メタデータ) (2023-05-08T05:07:23Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - StyleSDF: High-Resolution 3D-Consistent Image and Geometry Generation [34.01352591390208]
本稿では,高分解能3次元画像と形状生成技術を導入し,StyleSDFと呼ぶ。
本手法は, 単視点RGBデータのみをトレーニングし, 画像生成のためのStyleGAN2の肩の上に立つ。
論文 参考訳(メタデータ) (2021-12-21T18:45:45Z) - Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction [53.315347543761426]
Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
論文 参考訳(メタデータ) (2021-11-26T18:33:14Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - 3D Shapes Local Geometry Codes Learning with SDF [8.37542758486152]
3次元形状記述としての符号付き距離関数(SDF)は、描画と再構成のための3次元幾何学を表現する最も効果的な手法の1つである。
本稿では,DeepSDFモデルのキャパシティ低下から生じる復元の劣化問題について考察する。
本稿では,局所形状から学習することで,元のDeepSDF結果を改善するモデルであるローカル幾何符号学習(LGCL)を提案する。
論文 参考訳(メタデータ) (2021-08-19T09:56:03Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - DECOR-GAN: 3D Shape Detailization by Conditional Refinement [50.8801457082181]
本稿では,3次元形状詳細化のための深層生成ネットワークについて紹介する。
提案手法は, 粗い形状を様々な形状の細かな形状に洗練することができることを示す。
論文 参考訳(メタデータ) (2020-12-16T18:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。