論文の概要: SALAD: Part-Level Latent Diffusion for 3D Shape Generation and
Manipulation
- arxiv url: http://arxiv.org/abs/2303.12236v1
- Date: Tue, 21 Mar 2023 23:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:46:04.782588
- Title: SALAD: Part-Level Latent Diffusion for 3D Shape Generation and
Manipulation
- Title(参考訳): SALAD:3次元形状生成と操作のための部分レベル遅延拡散
- Authors: Juil Koo, Seungwoo Yoo, Minh Hieu Nguyen, Minhyuk Sung
- Abstract要約: 部分レベルの暗黙的3次元表現に基づくカスケード拡散モデルを提案する。
提案モデルでは,最先端の生成品質を実現し,条件付き設定での付加的なトレーニングを伴わずに,部分レベルの形状の編集と操作が可能となる。
- 参考スコア(独自算出の注目度): 10.478729083130366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a cascaded diffusion model based on a part-level implicit 3D
representation. Our model achieves state-of-the-art generation quality and also
enables part-level shape editing and manipulation without any additional
training in conditional setup. Diffusion models have demonstrated impressive
capabilities in data generation as well as zero-shot completion and editing via
a guided reverse process. Recent research on 3D diffusion models has focused on
improving their generation capabilities with various data representations,
while the absence of structural information has limited their capability in
completion and editing tasks. We thus propose our novel diffusion model using a
part-level implicit representation. To effectively learn diffusion with
high-dimensional embedding vectors of parts, we propose a cascaded framework,
learning diffusion first on a low-dimensional subspace encoding extrinsic
parameters of parts and then on the other high-dimensional subspace encoding
intrinsic attributes. In the experiments, we demonstrate the outperformance of
our method compared with the previous ones both in generation and part-level
completion and manipulation tasks.
- Abstract(参考訳): 部分レベルの暗黙的3次元表現に基づくカスケード拡散モデルを提案する。
本モデルは最先端の品質を実現し,条件設定のトレーニングを必要とせず,部分レベルの形状編集や操作も可能とした。
拡散モデルは、ガイド付きリバースプロセスによるゼロショット補完と編集と同様に、データ生成における印象的な機能を示している。
最近の3次元拡散モデルの研究は、様々なデータ表現による生成能力の向上に重点を置いているが、構造情報の欠如により、タスクの完了や編集の能力は制限されている。
そこで我々は,部分レベルの暗黙表現を用いた新しい拡散モデルを提案する。
部品の高次元埋め込みベクトルによる拡散を効果的に学習するために,まず,部品の外部パラメータを符号化する低次元部分空間上で拡散を学習し,次に内在属性を符号化する高次元部分空間を学習するカスケードフレームワークを提案する。
実験では,生成および部分レベルのコンプリートおよび操作タスクにおいて,従来の手法と比較して性能が低下することを示す。
関連論文リスト
- Bayesian Diffusion Models for 3D Shape Reconstruction [57.44181038281908]
本稿では,トップダウン(優先)情報をボトムアップ(データ駆動)手順と密結合することにより,効果的なベイズ推定を行う予測アルゴリズムを提案する。
3次元形状復元作業におけるBDMの有効性を示す。
論文 参考訳(メタデータ) (2024-03-11T17:55:53Z) - VolumeDiffusion: Flexible Text-to-3D Generation with Efficient
Volumetric Encoder [59.436304016347485]
本稿では,テキストから3D生成のための先駆的な3Dエンコーダを提案する。
マルチビュー画像から特徴ボリュームを効率よく取得する軽量ネットワークを開発した。
3Dボリュームは、3D U-Netを使用してテキストから3D生成のための拡散モデルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-12-18T18:59:05Z) - CAD: Photorealistic 3D Generation via Adversarial Distillation [28.07049413820128]
本稿では,事前学習した拡散モデルを用いた3次元合成のための新しい学習パラダイムを提案する。
提案手法は,1つの画像に条件付された高忠実かつ光リアルな3Dコンテンツの生成を解放し,プロンプトを行う。
論文 参考訳(メタデータ) (2023-12-11T18:59:58Z) - Diffusion-SS3D: Diffusion Model for Semi-supervised 3D Object Detection [77.23918785277404]
半教師付き3次元物体検出のための拡散モデルを用いて,擬似ラベルの品質向上に向けた新たな視点であるDiffusion-SS3Dを提案する。
具体的には、劣化した3Dオブジェクトサイズとクラスラベル、分布を生成し、拡散モデルをデノナイズプロセスとして利用し、バウンディングボックス出力を得る。
我々は,ScanNetとSUN RGB-Dベンチマークデータセットの実験を行い,既存手法に対する最先端性能の実現を実証した。
論文 参考訳(メタデータ) (2023-12-05T18:54:03Z) - Taming Latent Diffusion Models to See in the Dark [65.6004750218506]
LDM-SIDは,提案するテーピングモジュールの集合を凍結した事前学習拡散モデルに挿入し,生成過程を制御することを目的としている。
入力されたRAW画像に2次元離散ウェーブレット変換を適用し、LLIEタスクを低周波コンテンツ生成と高周波ディテールメンテナンスという2つの重要な部分に分割する。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - SPiC-E : Structural Priors in 3D Diffusion Models using Cross-Entity
Attention [10.400213716661773]
本研究では,3次元拡散モデルに構造的ガイダンスを加えるニューラルネットワークSPiC-Eを提案する。
提案手法は,3次元スタイリゼーション,意味的形状の編集,テキスト条件の抽象化-to-3Dなど,様々なアプリケーションをサポートする。
論文 参考訳(メタデータ) (2023-11-29T17:36:49Z) - Surf-D: High-Quality Surface Generation for Arbitrary Topologies using
Diffusion Models [84.70704129551245]
Surf-Dは任意の位相を持つ表面として高品質な3次元形状を生成する新しい方法である。
UDFは任意のトポロジを扱うのに優れており、複雑な形状を生成することができる。
論文 参考訳(メタデータ) (2023-11-28T18:56:01Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - 3D Neural Field Generation using Triplane Diffusion [37.46688195622667]
ニューラルネットワークの3次元認識のための効率的な拡散ベースモデルを提案する。
当社のアプローチでは,ShapeNetメッシュなどのトレーニングデータを,連続的占有フィールドに変換することによって前処理する。
本論文では,ShapeNetのオブジェクトクラスにおける3D生成の現状について述べる。
論文 参考訳(メタデータ) (2022-11-30T01:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。