論文の概要: Efficient and Scalable Point Cloud Generation with Sparse Point-Voxel Diffusion Models
- arxiv url: http://arxiv.org/abs/2408.06145v1
- Date: Mon, 12 Aug 2024 13:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 14:15:41.017488
- Title: Efficient and Scalable Point Cloud Generation with Sparse Point-Voxel Diffusion Models
- Title(参考訳): スパースポイント-ボクセル拡散モデルによる効率的およびスケーラブルな点雲生成
- Authors: Ioannis Romanelis, Vlassios Fotis, Athanasios Kalogeras, Christos Alexakos, Konstantinos Moustakas, Adrian Munteanu,
- Abstract要約: 本稿では3次元生成モデルのための新しい点雲U-Net拡散アーキテクチャを提案する。
我々のネットワークは、高分解能な点表現とスパースボクセルの計算効率を組み合わせた二重分岐アーキテクチャを採用している。
我々のモデルは全てのタスクに優れており、ポイントクラウド生成モデルのための最先端の拡散U-Netとして確立されている。
- 参考スコア(独自算出の注目度): 6.795447206159906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel point cloud U-Net diffusion architecture for 3D generative modeling capable of generating high-quality and diverse 3D shapes while maintaining fast generation times. Our network employs a dual-branch architecture, combining the high-resolution representations of points with the computational efficiency of sparse voxels. Our fastest variant outperforms all non-diffusion generative approaches on unconditional shape generation, the most popular benchmark for evaluating point cloud generative models, while our largest model achieves state-of-the-art results among diffusion methods, with a runtime approximately 70% of the previously state-of-the-art PVD. Beyond unconditional generation, we perform extensive evaluations, including conditional generation on all categories of ShapeNet, demonstrating the scalability of our model to larger datasets, and implicit generation which allows our network to produce high quality point clouds on fewer timesteps, further decreasing the generation time. Finally, we evaluate the architecture's performance in point cloud completion and super-resolution. Our model excels in all tasks, establishing it as a state-of-the-art diffusion U-Net for point cloud generative modeling. The code is publicly available at https://github.com/JohnRomanelis/SPVD.git.
- Abstract(参考訳): 高速な生成時間を維持しながら高品質で多様な3次元形状を生成できる3次元生成モデリングのための新しいポイントクラウドU-Net拡散アーキテクチャを提案する。
我々のネットワークは、点の高分解能表現とスパースボクセルの計算効率を組み合わせた二重分岐アーキテクチャを採用している。
我々の最も高速な変種は、点雲生成モデルを評価するための最も一般的なベンチマークである無条件形状生成に関するすべての非拡散生成手法を上回り、我々の最大のモデルは拡散法における最先端の結果を達成し、以前の最先端PVDの約70%をランタイムが達成している。
非条件生成以外にも、ShapeNetの全カテゴリの条件生成、大規模データセットへのモデルのスケーラビリティの実証、ネットワークがより少ないタイムステップで高品質なポイントクラウドを生成できる暗黙的な生成など、広範な評価を行い、生成時間を短縮します。
最後に、ポイントクラウドの完了と超解像におけるアーキテクチャの性能を評価する。
我々のモデルは全てのタスクに優れており、ポイントクラウド生成モデルのための最先端の拡散U-Netとして確立されている。
コードはhttps://github.com/JohnRomanelis/SPVD.gitで公開されている。
関連論文リスト
- Make-A-Shape: a Ten-Million-scale 3D Shape Model [52.701745578415796]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - RAVEN: Rethinking Adversarial Video Generation with Efficient Tri-plane Networks [93.18404922542702]
本稿では,長期的空間的および時間的依存関係に対処する新しいビデオ生成モデルを提案する。
提案手法は,3次元認識型生成フレームワークにインスパイアされた,明示的で単純化された3次元平面のハイブリッド表現を取り入れたものである。
我々のモデルは高精細度ビデオクリップを解像度256時間256$ピクセルで合成し、フレームレート30fpsで5ドル以上まで持続する。
論文 参考訳(メタデータ) (2024-01-11T16:48:44Z) - Patch-Wise Point Cloud Generation: A Divide-and-Conquer Approach [83.05340155068721]
分割・分散アプローチを用いた新しい3dポイントクラウド生成フレームワークを考案する。
すべてのパッチジェネレータは学習可能な事前情報に基づいており、幾何学的プリミティブの情報を取得することを目的としている。
最も人気のあるポイントクラウドデータセットであるShapeNetのさまざまなオブジェクトカテゴリに関する実験結果は、提案したパッチワイドポイントクラウド生成の有効性を示している。
論文 参考訳(メタデータ) (2023-07-22T11:10:39Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - Convolutional Neural Network-based Efficient Dense Point Cloud
Generation using Unsigned Distance Fields [3.198144010381572]
本稿では,任意の3次元形状の符号なし距離場を学習し,予測する軽量畳み込みニューラルネットワークを提案する。
実験により、提案されたアーキテクチャは、7.8倍のモデルパラメータ、2.4倍の推論時間、最大24.8%の生成品質向上により、技術の状態よりも優れていた。
論文 参考訳(メタデータ) (2022-03-22T08:28:50Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Voxel-based Network for Shape Completion by Leveraging Edge Generation [76.23436070605348]
エッジ生成(VE-PCN)を利用した点雲補完のためのボクセルネットワークを開発した。
まず点雲を正規のボクセル格子に埋め込み、幻覚した形状のエッジの助けを借りて完全な物体を生成する。
この分離されたアーキテクチャとマルチスケールのグリッド機能学習は、より現実的な表面上の詳細を生成することができる。
論文 参考訳(メタデータ) (2021-08-23T05:10:29Z) - Discrete Point Flow Networks for Efficient Point Cloud Generation [36.03093265136374]
生成モデルは3次元形状とその統計的バリエーションをモデル化するのに有効であることが証明されている。
任意の大きさの3次元点雲を生成するために,フローの正規化に基づく潜在変数モデルを導入する。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
論文 参考訳(メタデータ) (2020-07-20T14:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。