論文の概要: 3DShape2VecSet: A 3D Shape Representation for Neural Fields and
Generative Diffusion Models
- arxiv url: http://arxiv.org/abs/2301.11445v3
- Date: Mon, 1 May 2023 22:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 17:26:57.678272
- Title: 3DShape2VecSet: A 3D Shape Representation for Neural Fields and
Generative Diffusion Models
- Title(参考訳): 3DShape2VecSet: ニューラルネットワークと生成拡散モデルのための3次元形状表現
- Authors: Biao Zhang, Jiapeng Tang, Matthias Niessner, Peter Wonka
- Abstract要約: 3DShape2VecSetは、生成拡散モデルのために設計されたニューラルネットワークのための新しい形状表現である。
その結果,3次元形状符号化および3次元形状生成モデルタスクの性能が向上した。
- 参考スコア(独自算出の注目度): 42.928400751670935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce 3DShape2VecSet, a novel shape representation for neural fields
designed for generative diffusion models. Our shape representation can encode
3D shapes given as surface models or point clouds, and represents them as
neural fields. The concept of neural fields has previously been combined with a
global latent vector, a regular grid of latent vectors, or an irregular grid of
latent vectors. Our new representation encodes neural fields on top of a set of
vectors. We draw from multiple concepts, such as the radial basis function
representation and the cross attention and self-attention function, to design a
learnable representation that is especially suitable for processing with
transformers. Our results show improved performance in 3D shape encoding and 3D
shape generative modeling tasks. We demonstrate a wide variety of generative
applications: unconditioned generation, category-conditioned generation,
text-conditioned generation, point-cloud completion, and image-conditioned
generation.
- Abstract(参考訳): 3dshape2vecsetは,生成拡散モデル用に設計されたニューラルフィールドの新たな形状表現である。
私たちの形状表現は、表面モデルまたは点雲として与えられる3d形状をエンコードし、それらを神経場として表現することができる。
神経場の概念は、以前は大域的潜在ベクトル、正規な潜在ベクトルのグリッド、あるいは不規則な潜在ベクトルのグリッドと組み合わされていた。
我々の新しい表現は、ベクトルの集合の上に神経場を符号化する。
本研究では,ラジアル基底関数表現やクロス・アテンション・セルフ・アテンション関数といった複数の概念から,特にトランスフォーマーを用いた処理に適した学習可能表現を設計する。
その結果、3次元形状エンコーディングと3次元形状生成モデリングタスクの性能が向上した。
非条件生成,カテゴリ条件生成,テキスト条件生成,ポイントクラウド補完,イメージ条件生成など,多種多様な生成アプリケーションを示す。
関連論文リスト
- GaussianAnything: Interactive Point Cloud Latent Diffusion for 3D Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,シングル/マルチビュー画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - FullFormer: Generating Shapes Inside Shapes [9.195909458772187]
本稿では,複雑な3次元形状を内部幾何学的詳細で生成するための最初の暗黙的生成モデルを提案する。
我々のモデルは、非水密メッシュデータから学習できるネストした3次元表面を表現するために符号のない距離場を使用する。
本研究では,ShapeNetデータセットの"Cars","Planes","Chairs"といった一般的なクラス上で,最先端のクラウド生成結果が得られたことを実証する。
論文 参考訳(メタデータ) (2023-03-20T16:19:23Z) - 3D-LDM: Neural Implicit 3D Shape Generation with Latent Diffusion Models [8.583859530633417]
自動復号器の潜時空間で動作する3次元形状のニューラル暗黙表現のための拡散モデルを提案する。
これにより、多種多様な高品質な3D表面を生成できます。
論文 参考訳(メタデータ) (2022-12-01T20:00:00Z) - 3D Neural Field Generation using Triplane Diffusion [37.46688195622667]
ニューラルネットワークの3次元認識のための効率的な拡散ベースモデルを提案する。
当社のアプローチでは,ShapeNetメッシュなどのトレーニングデータを,連続的占有フィールドに変換することによって前処理する。
本論文では,ShapeNetのオブジェクトクラスにおける3D生成の現状について述べる。
論文 参考訳(メタデータ) (2022-11-30T01:55:52Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - 3DILG: Irregular Latent Grids for 3D Generative Modeling [44.16807313707137]
ニューラルネットワークとして3次元形状を符号化するための新しい表現を提案する。
この表現はトランスアーキテクチャと互換性があり、形状再構成と形状生成の両方の利点があるように設計されている。
論文 参考訳(メタデータ) (2022-05-27T11:29:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。