論文の概要: Discrete Point Flow Networks for Efficient Point Cloud Generation
- arxiv url: http://arxiv.org/abs/2007.10170v1
- Date: Mon, 20 Jul 2020 14:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:08:15.203994
- Title: Discrete Point Flow Networks for Efficient Point Cloud Generation
- Title(参考訳): 効率的な点雲生成のための離散点流ネットワーク
- Authors: Roman Klokov, Edmond Boyer, Jakob Verbeek
- Abstract要約: 生成モデルは3次元形状とその統計的バリエーションをモデル化するのに有効であることが証明されている。
任意の大きさの3次元点雲を生成するために,フローの正規化に基づく潜在変数モデルを導入する。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
- 参考スコア(独自算出の注目度): 36.03093265136374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models have proven effective at modeling 3D shapes and their
statistical variations. In this paper we investigate their application to point
clouds, a 3D shape representation widely used in computer vision for which,
however, only few generative models have yet been proposed. We introduce a
latent variable model that builds on normalizing flows with affine coupling
layers to generate 3D point clouds of an arbitrary size given a latent shape
representation. To evaluate its benefits for shape modeling we apply this model
for generation, autoencoding, and single-view shape reconstruction tasks. We
improve over recent GAN-based models in terms of most metrics that assess
generation and autoencoding. Compared to recent work based on continuous flows,
our model offers a significant speedup in both training and inference times for
similar or better performance. For single-view shape reconstruction we also
obtain results on par with state-of-the-art voxel, point cloud, and mesh-based
methods.
- Abstract(参考訳): 生成モデルは、3次元形状とその統計変動のモデル化に有効であることが証明されている。
本稿では,コンピュータビジョンにおいて広く用いられている3次元形状表現である点雲への応用について検討するが,生成モデルはまだほとんど提案されていない。
本稿では,アフィン結合層を用いた正規化フローに基づく潜在変数モデルを導入し,任意の大きさの3次元点雲を生成する。
形状モデリングの利点を評価するために、このモデルを生成、自動エンコード、および単視点形状再構成タスクに適用する。
我々は、生成と自動エンコーディングを評価するほとんどの指標の観点から、最近のGANモデルよりも改善する。
連続フローに基づく最近の作業と比較して、我々のモデルは、類似またはより良いパフォーマンスのためのトレーニング時間と推論時間の両方において、大幅なスピードアップを提供します。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
関連論文リスト
- Efficient and Scalable Point Cloud Generation with Sparse Point-Voxel Diffusion Models [6.795447206159906]
本稿では3次元生成モデルのための新しい点雲U-Net拡散アーキテクチャを提案する。
我々のネットワークは、高分解能な点表現とスパースボクセルの計算効率を組み合わせた二重分岐アーキテクチャを採用している。
我々のモデルは全てのタスクに優れており、ポイントクラウド生成モデルのための最先端の拡散U-Netとして確立されている。
論文 参考訳(メタデータ) (2024-08-12T13:41:47Z) - Make-A-Shape: a Ten-Million-scale 3D Shape Model [52.701745578415796]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - MeshDiffusion: Score-based Generative 3D Mesh Modeling [68.40770889259143]
本研究では,シーンの自動生成と物理シミュレーションのための現実的な3次元形状生成の課題について考察する。
メッシュのグラフ構造を利用して、3Dメッシュを生成するのにシンプルだが非常に効果的な生成モデリング手法を用いる。
具体的には、変形可能な四面体格子でメッシュを表現し、この直接パラメトリゼーション上で拡散モデルを訓練する。
論文 参考訳(メタデータ) (2023-03-14T17:59:01Z) - Generative Models for 3D Point Clouds [1.2043574473965317]
我々は,変圧器エンコーダ,潜時空間フローモデル,自己回帰デコーダを実験することにより,点クラウド潜時空間生成モデルの性能を向上させることを目的とする。
我々は,これらのモデルの生成と再構築のパフォーマンスを,様々なオブジェクトタイプで分析・比較する。
論文 参考訳(メタデータ) (2023-02-26T21:34:19Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Autoregressive 3D Shape Generation via Canonical Mapping [92.91282602339398]
トランスフォーマーは、画像、音声、テキスト生成など、様々な生成タスクで顕著なパフォーマンスを示している。
本稿では,変圧器のパワーをさらに活用し,それを3Dポイントクラウド生成のタスクに活用することを目的とする。
条件付き形状生成への応用として,本モデルを簡単にマルチモーダル形状完成に拡張することができる。
論文 参考訳(メタデータ) (2022-04-05T03:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。