論文の概要: DECOR-GAN: 3D Shape Detailization by Conditional Refinement
- arxiv url: http://arxiv.org/abs/2012.09159v2
- Date: Mon, 29 Mar 2021 03:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 03:03:25.109726
- Title: DECOR-GAN: 3D Shape Detailization by Conditional Refinement
- Title(参考訳): DECOR-GAN:条件付きリファインメントによる3次元形状詳細化
- Authors: Zhiqin Chen, Vladimir G. Kim, Matthew Fisher, Noam Aigerman, Hao
Zhang, Siddhartha Chaudhuri
- Abstract要約: 本稿では,3次元形状詳細化のための深層生成ネットワークについて紹介する。
提案手法は, 粗い形状を様々な形状の細かな形状に洗練することができることを示す。
- 参考スコア(独自算出の注目度): 50.8801457082181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a deep generative network for 3D shape detailization, akin to
stylization with the style being geometric details. We address the challenge of
creating large varieties of high-resolution and detailed 3D geometry from a
small set of exemplars by treating the problem as that of geometric detail
transfer. Given a low-resolution coarse voxel shape, our network refines it,
via voxel upsampling, into a higher-resolution shape enriched with geometric
details. The output shape preserves the overall structure (or content) of the
input, while its detail generation is conditioned on an input "style code"
corresponding to a detailed exemplar. Our 3D detailization via conditional
refinement is realized by a generative adversarial network, coined DECOR-GAN.
The network utilizes a 3D CNN generator for upsampling coarse voxels and a 3D
PatchGAN discriminator to enforce local patches of the generated model to be
similar to those in the training detailed shapes. During testing, a style code
is fed into the generator to condition the refinement. We demonstrate that our
method can refine a coarse shape into a variety of detailed shapes with
different styles. The generated results are evaluated in terms of content
preservation, plausibility, and diversity. Comprehensive ablation studies are
conducted to validate our network designs. Code is available at
https://github.com/czq142857/DECOR-GAN.
- Abstract(参考訳): 本稿では,3次元形状詳細化のための深層生成ネットワークについて紹介する。
本研究は,高分解能かつ詳細な3次元幾何を,幾何学的詳細移動として扱うことで,小さな例から作成するという課題に対処する。
我々のネットワークは、低解像度の粗いボクセル形状を与えられた場合、ボクセルのアップサンプリングにより、幾何学的詳細で富んだ高解像度の形状に精製する。
出力形状は入力の全体構造(または内容)を保持し、その詳細生成は詳細な例に対応する入力「スタイルコード」で条件付けされる。
コンディショナル・リファインメントによる3次元明細化は、DECOR-GANと呼ばれる生成逆ネットワークによって実現される。
このネットワークは、3D CNNジェネレータを用いて粗いボクセルと3D PatchGAN識別器をアップサンプリングし、生成されたモデルの局所パッチをトレーニングの詳細形状に類似させる。
テスト中、スタイルコードがジェネレータに送られて、リファインメントが条件付けされる。
提案手法は, 粗い形状を様々な形状の細かな形状に洗練することができることを示す。
得られた結果は,コンテンツ保存,妥当性,多様性の観点から評価される。
ネットワーク設計を検証するため,包括的アブレーション研究を行った。
コードはhttps://github.com/czq142857/DECOR-GANで公開されている。
関連論文リスト
- DetailGen3D: Generative 3D Geometry Enhancement via Data-Dependent Flow [44.72037991063735]
DetailGen3Dは、生成された3D形状を強化するために特別に設計されたジェネレーティブなアプローチである。
我々の重要な洞察は、潜在空間におけるデータ依存フローを通して、粗大から細小への変換を直接モデル化することである。
改質時に正確な空間対応を確保するためのトークンマッチング戦略を導入する。
論文 参考訳(メタデータ) (2024-11-25T17:08:17Z) - DECOLLAGE: 3D Detailization by Controllable, Localized, and Learned Geometry Enhancement [38.719572669042925]
エンドユーザーが機械学習を用いて3次元形状を洗練・詳細化できる3Dモデリング手法を提案する。
詳細をローカライズする能力は、新しいインタラクティブな創造性と応用を可能にする。
論文 参考訳(メタデータ) (2024-09-10T00:51:49Z) - NeuSDFusion: A Spatial-Aware Generative Model for 3D Shape Completion, Reconstruction, and Generation [52.772319840580074]
3D形状生成は、特定の条件や制約に固執する革新的な3Dコンテンツを作成することを目的としている。
既存の方法は、しばしば3Dの形状を局所化されたコンポーネントの列に分解し、各要素を分離して扱う。
本研究では2次元平面表現を利用した空間認識型3次元形状生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T04:09:34Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - ShaDDR: Interactive Example-Based Geometry and Texture Generation via 3D
Shape Detailization and Differentiable Rendering [24.622120688131616]
ShaDDRは、高分解能なテクスチャ化された3D形状を生成するサンプルベースのディープ生成ニューラルネットワークである。
本手法は,マルチレゾリューションボクセルアップサンプリングによる幾何学の精密化と,ボクセル表面のテクスチャの生成を学習する。
生成された形状は、入力された粗いボクセルモデルの全体構造を保存する。
論文 参考訳(メタデータ) (2023-06-08T02:35:30Z) - Dual Octree Graph Networks for Learning Adaptive Volumetric Shape
Representations [21.59311861556396]
本手法は,3次元形状の体積場を,オクツリーによって構成された適応的特徴量で符号化する。
エンコーダ・デコーダネットワークは、オクツリーノードの二重グラフ上のグラフ畳み込みに基づいて、適応的な特徴量を学ぶように設計されている。
提案手法は, 形状詳細を効果的に符号化し, 高速な3次元形状復元を可能にし, 訓練カテゴリから3次元形状をモデル化するための優れた汎用性を示す。
論文 参考訳(メタデータ) (2022-05-05T17:56:34Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - DmifNet:3D Shape Reconstruction Based on Dynamic Multi-Branch
Information Fusion [14.585272577456472]
シングルビュー画像からの3Dオブジェクトの再構築は、長年の課題である。
複雑なトポロジーで3次元形状を正確に再構築することは, それまでの作業では困難であった。
2次元画像から任意の位相の高忠実度3次元形状を復元できる動的マルチブランチ情報融合ネットワーク(DmifNet)を提案する。
論文 参考訳(メタデータ) (2020-11-21T11:31:27Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。