論文の概要: Tetrahedral Diffusion Models for 3D Shape Generation
- arxiv url: http://arxiv.org/abs/2211.13220v1
- Date: Wed, 23 Nov 2022 18:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:57:22.441831
- Title: Tetrahedral Diffusion Models for 3D Shape Generation
- Title(参考訳): 3次元形状生成のためのテトラダラル拡散モデル
- Authors: Nikolai Kalischek, Torben Peters, Jan D. Wegner, Konrad Schindler
- Abstract要約: DDM(probabilistic denoising diffusion model)は、ニューラルネットワークの生成能力を進歩させたモデルである。
本稿では3次元空間の四面体分割に対するDDMの拡張である四面体拡散モデルを紹介する。
テトラドラル拡散は、可塑性で、視覚的に快く、多様な3次元形状をもたらし、色のような表面特性を処理でき、その結果の形状を操作するために試験時にガイドできることを示す。
- 参考スコア(独自算出の注目度): 25.26269466954478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, probabilistic denoising diffusion models (DDMs) have greatly
advanced the generative power of neural networks. DDMs, inspired by
non-equilibrium thermodynamics, have not only been used for 2D image
generation, but can also readily be applied to 3D point clouds. However,
representing 3D shapes as point clouds has a number of drawbacks, most obvious
perhaps that they have no notion of topology or connectivity. Here, we explore
an alternative route and introduce tetrahedral diffusion models, an extension
of DDMs to tetrahedral partitions of 3D space. The much more structured 3D
representation with space-filling tetrahedra makes it possible to guide and
regularize the diffusion process and to apply it to colorized assets. To
manipulate the proposed representation, we develop tetrahedral convolutions,
down- and up-sampling kernels. With those operators, 3D shape generation
amounts to learning displacement vectors and signed distance values on the
tetrahedral grid. Our experiments confirm that Tetrahedral Diffusion yields
plausible, visually pleasing and diverse 3D shapes, is able to handle surface
attributes like color, and can be guided at test time to manipulate the
resulting shapes.
- Abstract(参考訳): 近年,DDM(probabilistic denoising diffusion model)は,ニューラルネットワークの生成能力を大幅に向上させている。
非平衡熱力学にインスパイアされたddmは、2次元画像生成に使用されるだけでなく、3次元点雲にも容易に適用できる。
しかし、3次元形状を点雲として表すには多くの欠点があり、トポロジーや接続性の概念がないことは明らかである。
本稿では, ddmを3次元空間の四面体分割へ拡張した四面体拡散モデルを紹介する。
空間充填テトラヘドラによるより構造化された3次元表現により、拡散過程をガイドし、規則化し、それを着色資産に適用することができる。
提案手法を操作するために,四面体畳み込み,ダウンサンプリング,アップサンプリングカーネルを開発した。
これらの演算子では、3次元形状生成は四面体格子上の変位ベクトルと符号付き距離値の学習に等しい。
実験の結果, テトラドラル拡散は可塑性, 視覚的に快く, 多様な3次元形状をもたらし, 色などの表面特性を処理でき, 結果の形状を操作できることがわかった。
関連論文リスト
- From Diffusion to Resolution: Leveraging 2D Diffusion Models for 3D Super-Resolution Task [19.56372155146739]
本稿では,3次元電子顕微鏡(vEM)の超解像性を高めるために,2次元拡散モデルと体積内の横方向の連続性を利用する新しい手法を提案する。
イオンビーム走査型電子顕微鏡(FIB-SEM)の2つのデータを用いて,本フレームワークのロバスト性と実用性を示した。
論文 参考訳(メタデータ) (2024-11-25T09:12:55Z) - L3DG: Latent 3D Gaussian Diffusion [74.36431175937285]
L3DGは3次元ガウス拡散定式化による3次元ガウスの3次元モデリングのための最初のアプローチである。
我々は、部屋の大きさのシーンで効率的に操作するために、スパース畳み込みアーキテクチャーを用いている。
3Dガウス表現を利用することで、生成されたシーンを任意の視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2024-10-17T13:19:32Z) - 4Diffusion: Multi-view Video Diffusion Model for 4D Generation [55.82208863521353]
現在の4D生成法は, 高度な拡散生成モデルの助けを借りて, 有意義な有効性を実現している。
モノクロビデオから空間的・時間的に一貫した4Dコンテンツを生成することを目的とした,新しい4D生成パイプライン,すなわち4Diffusionを提案する。
論文 参考訳(メタデータ) (2024-05-31T08:18:39Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - LN3Diff: Scalable Latent Neural Fields Diffusion for Speedy 3D Generation [73.36690511083894]
本稿では,LN3Diffと呼ばれる新しいフレームワークを導入し,統一された3次元拡散パイプラインに対処する。
提案手法では,3次元アーキテクチャと変分オートエンコーダを用いて,入力画像を構造化されたコンパクトな3次元潜在空間に符号化する。
3次元生成のためのShapeNetの最先端性能を実現し,モノクロ3次元再構成と条件付き3次元生成において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T17:54:34Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Direct2.5: Diverse Text-to-3D Generation via Multi-view 2.5D Diffusion [32.13452288549591]
3Dコンテンツを作成するための現在の方法は、時間がかかり、生成の多様性を失う。
本研究では,事前学習した2次元拡散モデルから2.5D拡散を微調整した多視点モデルを用いる。
特別に設計された融合方式による2.5D直接生成は,10秒で多種多様で,モードフリーで,高忠実な3Dコンテンツ生成を実現することができることを示す。
論文 参考訳(メタデータ) (2023-11-27T16:26:54Z) - DiT-3D: Exploring Plain Diffusion Transformers for 3D Shape Generation [49.22974835756199]
本稿では,3次元形状生成のための新しい拡散変換器,すなわちDiT-3Dを提案する。
既存のU-Netアプローチと比較して、私たちのDiT-3Dはモデルサイズがよりスケーラブルで、より高品質な世代を生み出す。
ShapeNetデータセットの実験結果から,提案したDiT-3Dが最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2023-07-04T17:15:46Z) - 3D Neural Field Generation using Triplane Diffusion [37.46688195622667]
ニューラルネットワークの3次元認識のための効率的な拡散ベースモデルを提案する。
当社のアプローチでは,ShapeNetメッシュなどのトレーニングデータを,連続的占有フィールドに変換することによって前処理する。
本論文では,ShapeNetのオブジェクトクラスにおける3D生成の現状について述べる。
論文 参考訳(メタデータ) (2022-11-30T01:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。