論文の概要: StarNet: Style-Aware 3D Point Cloud Generation
- arxiv url: http://arxiv.org/abs/2303.15805v1
- Date: Tue, 28 Mar 2023 08:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 16:04:45.268087
- Title: StarNet: Style-Aware 3D Point Cloud Generation
- Title(参考訳): StarNet:スタイル対応の3Dポイントクラウド生成
- Authors: Yunfan Zhang, Hao Wang, Guosheng Lin, Vun Chan Hua Nicholas, Zhiqi
Shen, Chunyan Miao
- Abstract要約: StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
- 参考スコア(独自算出の注目度): 82.30389817015877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates an open research task of reconstructing and
generating 3D point clouds. Most existing works of 3D generative models
directly take the Gaussian prior as input for the decoder to generate 3D point
clouds, which fail to learn disentangled latent codes, leading noisy
interpolated results. Most of the GAN-based models fail to discriminate the
local geometries, resulting in the point clouds generated not evenly
distributed at the object surface, hence degrading the point cloud generation
quality. Moreover, prevailing methods adopt computation-intensive frameworks,
such as flow-based models and Markov chains, which take plenty of time and
resources in the training phase. To resolve these limitations, this paper
proposes a unified style-aware network architecture combining both point-wise
distance loss and adversarial loss, StarNet which is able to reconstruct and
generate high-fidelity and even 3D point clouds using a mapping network that
can effectively disentangle the Gaussian prior from input's high-level
attributes in the mapped latent space to generate realistic interpolated
objects. Experimental results demonstrate that our framework achieves
comparable state-of-the-art performance on various metrics in the point cloud
reconstruction and generation tasks, but is more lightweight in model size,
requires much fewer parameters and less time for model training.
- Abstract(参考訳): 本稿では,3次元点雲の再構築と生成に関するオープン研究課題について検討する。
既存の3D生成モデルのほとんどの研究は、デコーダが3Dポイントクラウドを生成するための入力としてガウス先行を直接受け取っている。
GANベースのモデルのほとんどは局所的なジオメトリーの識別に失敗し、結果として物体表面に均等に分布しない点雲が生成され、点雲生成の品質が低下する。
さらに、一般的な手法では、フローベースのモデルやマルコフ連鎖といった計算集約的なフレームワークを採用しており、トレーニングフェーズでは多くの時間とリソースを必要とする。
これらの制約を解決するために,本研究では,高忠実度および3次元点群を再構成・生成可能なStarNetと,マップ付き潜時空間における入力の高次属性からガウスを効果的に切り離し,現実的な補間オブジェクトを生成することができる3次元点群を統合したスタイルアウェアネットワークアーキテクチャを提案する。
実験の結果,我々のフレームワークは,point cloudの再構築および生成タスクにおいて,さまざまな指標で同等のパフォーマンスを達成しているが,モデルサイズではより軽量であり,パラメータも少なく,モデルトレーニングに要する時間も少ないことがわかった。
関連論文リスト
- DM3D: Distortion-Minimized Weight Pruning for Lossless 3D Object Detection [42.07920565812081]
本稿では,3次元物体検出のための新しいトレーニング後の重み付け手法を提案する。
事前訓練されたモデルにおける冗長パラメータを決定し、局所性と信頼性の両方において最小限の歪みをもたらす。
本フレームワークは,ネットワーク出力の歪みを最小限に抑え,検出精度を最大に維持することを目的とする。
論文 参考訳(メタデータ) (2024-07-02T09:33:32Z) - Patch-Wise Point Cloud Generation: A Divide-and-Conquer Approach [83.05340155068721]
分割・分散アプローチを用いた新しい3dポイントクラウド生成フレームワークを考案する。
すべてのパッチジェネレータは学習可能な事前情報に基づいており、幾何学的プリミティブの情報を取得することを目的としている。
最も人気のあるポイントクラウドデータセットであるShapeNetのさまざまなオブジェクトカテゴリに関する実験結果は、提案したパッチワイドポイントクラウド生成の有効性を示している。
論文 参考訳(メタデータ) (2023-07-22T11:10:39Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Discrete Point Flow Networks for Efficient Point Cloud Generation [36.03093265136374]
生成モデルは3次元形状とその統計的バリエーションをモデル化するのに有効であることが証明されている。
任意の大きさの3次元点雲を生成するために,フローの正規化に基づく潜在変数モデルを導入する。
単一ビュー形状再構成では、最先端のボクセル、ポイントクラウド、メッシュベースの手法と同等の結果が得られる。
論文 参考訳(メタデータ) (2020-07-20T14:48:00Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。